999 resultados para Modèles : atmosphère


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé Métropolisation, morphologie urbaine et développement durable. Transformations urbaines et régulation de l'étalement : le cas de l'agglomération lausannoise. Cette thèse s'inscrit clans la perspective d'une analyse stratégique visant à un définir et à expliciter les liens entre connaissance, expertise et décision politique. L'hypothèse fondamentale qui oriente l'ensemble de ce travail est la suivante : le régime d'urbanisation qui s'est imposé au cours des trente dernières années correspond à une transformation du principe morphogénétique de développement spatial des agglomérations qui tend à alourdir leurs bilans écologiques et à péjorer la qualité du cadre de vie des citadins. Ces enjeux environnementaux liés aux changements urbains et singulièrement ceux de la forme urbaine constituent un thème de plus en plus important dans la recherche de solutions d'aménagement urbain dans une perspective de développement durable. Dans ce contexte, l'aménagement urbain devient un mode d'action et une composante de tout premier ordre des politiques publiques visant un développement durable à l'échelle locale et globale. Ces modalités de développement spatial des agglomérations émergent indiscutablement au coeur de la problématique environnementale. Or si le concept de développement durable nous livre une nouvelle de de lecture des territoires et de ses transformations, en prônant le modèle de la ville compacte et son corollaire la densification, la traduction à donner à ce principe stratégique reste controversée, notamment sous l'angle de l'aménagement du territoire et des stratégies de développement urbain permettant une mise en oeuvre adéquate des solutions proposées. Nous avons ainsi tenté dans ce travail de répondre à un certain nombre de questions : quelle validité accorder au modèle de la ville compacte ? La densification est-elle une réponse adéquate ? Si oui, sous quelles modalités ? Quelles sont, en termes de stratégies d'aménagement, les alternatives durables au modèle de la ville étalée ? Faut-il vraiment densifier ou simplement maîtriser la dispersion ? Notre objectif principal étant in fine de déterminer les orientations et contenus urbanistiques de politiques publiques visant à réguler l'étalement urbain, de valider la faisabilité de ces principes et à définir les conditions de leur mise en place dans le cas d'une agglomération. Pour cela, et après avoir choisi l'agglomération lausannoise comme terrain d'expérimentation, trois approches complémentaires se sont révélées indispensables dans ce travail 1. une approche théorique visant à définir un cadre conceptuel interdisciplinaire d'analyse du phénomène urbain dans ses rapports à la problématique du développement durable liant régime d'urbanisation - forme urbaine - développement durable ; 2. une approche méthodologique proposant des outils d'analyse simples et efficaces de description des nouvelles morphologies urbaines pour une meilleure gestion de l'environnement urbain et de la pratique de l'aménagement urbain ; 3. une approche pragmatique visant à approfondir la réflexion sur la ville étalée en passant d'une approche descriptive des conséquences du nouveau régime d'urbanisation à une approche opérationnelle, visant à identifier les lignes d'actions possibles dans une perspective de développement durable. Cette démarche d'analyse nous a conduits à trois résultats majeurs, nous permettant de définir une stratégie de lutte contre l'étalement. Premièrement, si la densification est acceptée comme un objectif stratégique de l'aménagement urbain, le modèle de la ville dense ne peut être appliqué saris la prise en considération d'autres objectifs d'aménagement. Il ne suffit pas de densifier pour réduire l'empreinte écologique de la ville et améliorer la qualité de vie des citadins. La recherche d'une forme urbaine plus durable est tributaire d'une multiplicité de facteurs et d'effets de synergie et la maîtrise des effets négatifs de l'étalement urbain passe par la mise en oeuvre de politiques urbaines intégrées et concertées, comme par exemple prôner la densification qualifiée comme résultante d'un processus finalisé, intégrer et valoriser les transports collectifs et encore plus la métrique pédestre avec l'aménagement urbain, intégrer systématiquement la diversité à travers les dimensions physique et sociale du territoire. Deuxièmement, l'avenir de ces territoires étalés n'est pas figé. Notre enquête de terrain a montré une évolution des modes d'habitat liée aux modes de vie, à l'organisation du travail, à la mobilité, qui font que l'on peut penser à un retour d'une partie de la population dans les villes centres (fin de la toute puissance du modèle de la maison individuelle). Ainsi, le diagnostic et la recherche de solutions d'aménagement efficaces et viables ne peuvent être dissociés des demandes des habitants et des comportements des acteurs de la production du cadre bâti. Dans cette perspective, tout programme d'urbanisme doit nécessairement s'appuyer sur la connaissance des aspirations de la population. Troisièmement, la réussite de la mise en oeuvre d'une politique globale de maîtrise des effets négatifs de l'étalement urbain est fortement conditionnée par l'adaptation de l'offre immobilière à la demande de nouveaux modèles d'habitat répondant à la fois à la nécessité d'une maîtrise des coûts de l'urbanisation (économiques, sociaux, environnementaux), ainsi qu'aux aspirations émergentes des ménages. Ces résultats nous ont permis de définir les orientations d'une stratégie de lutte contre l'étalement, dont nous avons testé la faisabilité ainsi que les conditions de mise en oeuvre sur le territoire de l'agglomération lausannoise. Abstract This dissertation participates in the perspective of a strategic analysis aiming at specifying the links between knowledge, expertise and political decision, The fundamental hypothesis directing this study assumes that the urban dynamics that has characterized the past thirty years signifies a trans-formation of the morphogenetic principle of agglomerations' spatial development that results in a worsening of their ecological balance and of city dwellers' quality of life. The environmental implications linked to urban changes and particularly to changes in urban form constitute an ever greater share of research into sustainable urban planning solutions. In this context, urban planning becomes a mode of action and an essential component of public policies aiming at local and global sustainable development. These patterns of spatial development indisputably emerge at the heart of environmental issues. If the concept of sustainable development provides us with new understanding into territories and their transformations, by arguing in favor of densification, its concretization remains at issue, especially in terms of urban planning and of urban development strategies allowing the appropriate implementations of the solutions offered. Thus, this study tries to answer a certain number of questions: what validity should be granted to the model of the dense city? Is densification an adequate answer? If so, under what terms? What are the sustainable alternatives to urban sprawl in terms of planning strategies? Should densification really be pursued or should we simply try to master urban sprawl? Our main objective being in fine to determine the directions and urban con-tents of public policies aiming at regulating urban sprawl, to validate the feasibility of these principles and to define the conditions of their implementation in the case of one agglomeration. Once the Lausanne agglomeration had been chosen as experimentation field, three complementary approaches proved to be essential to this study: 1. a theoretical approach aiming at definying an interdisciplinary conceptual framework of the ur-ban phenomenon in its relation to sustainable development linking urban dynamics - urban form - sustainable development ; 2. a methodological approach proposing simple and effective tools for analyzing and describing new urban morphologies for a better management of the urban environment and of urban planning practices 3. a pragmatic approach aiming at deepening reflection on urban sprawl by switching from a descriptive approach of the consequences of the new urban dynamics to an operational approach, aiming at identifying possible avenues of action respecting the principles of sustainable development. This analysis approach provided us with three major results, allowing us to define a strategy to cur-tail urban sprawl. First, if densification is accepted as a strategic objective of urban planning, the model of the dense city can not be applied without taking into consideration other urban planning objectives. Densification does not suffice to reduce the ecological impact of the city and improve the quality of life of its dwellers. The search for a more sustainable urban form depends on a multitude of factors and effects of synergy. Reducing the negative effects of urban sprawl requires the implementation of integrated and concerted urban policies, like for example encouraging densification qualified as resulting from a finalized process, integrating and developing collective forms of transportation and even more so the pedestrian metric with urban planning, integrating diversity on a systematic basis through the physical and social dimensions of the territory. Second, the future of such sprawling territories is not fixed. Our research on the ground revea-led an evolution in the modes of habitat related to ways of life, work organization and mobility that suggest the possibility of the return of a part of the population to the center of cities (end of the rule of the model of the individual home). Thus, the diagnosis and the search for effective and sustainable solutions can not be conceived of independently of the needs of the inhabitants and of the behavior of the actors behind the production of the built territory. In this perspective, any urban program must necessarily be based upon the knowledge of the population's wishes. Third, the successful implementation of a global policy of control of urban sprawl's negative effects is highly influenced by the adaptation of property offer to the demand of new habitat models satisfying both the necessity of urbanization cost controls (economical, social, environ-mental) and people's emerging aspirations. These results allowed us to define a strategy to cur-tail urban sprawl. Its feasibility and conditions of implementation were tested on the territory of the Lausanne agglomeration.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cet article analyse, à partir d'un modèle intégratif et dynamique, la souffrance au travail et les manifestations de celle-ci, chez les agents pénitentiaires en milieu carcéral dans un espace particulier qui est celui du « parloir pénitentiaire ». Si les questions des facteurs de risques, notamment du stress ou du burnout ont été abondamment traitées dans la littérature, selon des approches factorielles, rares sont les modèles multidimensionnels existants qui permettent de comprendre la complexité et la spécificité des processus en jeu en milieu carcéral. La méthode de recherche relève d'une analyse comparative des espaces professionnels. Soixante douze entretiens semi-directifs de recherche ont été conduits auprès des surveillants occupant chacun des espaces, dans trois établissements pénitentiaires français. À partir de différents indicateurs, le modèle permet de saisir les processus et étapes qui conduisent à la manifestation de souffrances au travail. Il offre à la fois des perspectives d'intervention et de prévention pour les cadres et psychologues chargés du soutien aux personnels.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les monographies consacrées à Jean-Baptiste Perronneau (ca 1715-1783) à la fin du XIXe siècle et au début du XXe siècle traduisaient l'engouement pour l'art du XVIIIesiècle qui se déployait dans le Tout Paris de la Belle Époque. Elles rendaient justice au peintre de l'Académie royale de peinture et de sculpture de Paris, et à l'un des peintres favoris des contemporains des Impressionnistes qu'elles présentaient comme un artiste éclipsé de son vivant par son prestigieux aîné, Maurice Quentin Delatour (1704-1788). La première partie de la thèse étudie la carrière parisienne du peintre, ses appuis artistiques et sociaux, ses pratiques au pastel et à l'huile, de l'agrément en 1746 à la réception en 1753 et avant le début de la période des voyages en 1756. La rivalité avec Delatour, mise en scène dans un esprit d'émulation au Salon du Louvre pendant plus de vingt ans, y est largement évoquée. Un même nombre de portraits exposés fait comprendre que Perronneau avait de son vivant la faveur des artistes et du public. Il permet de mesurer les effets de la rivalité avec le peintre de Cour sur sa carrière. Delatour faisait exposer en 1750 son autoportrait à côté de son portrait demandé à Perronneau. Les qualités des deux peintres étaient comparées par la nouvelle critique. Notre étude s'attache à ce qui les rapproche comme à ce qui les sépare. Dans la deuxième partie, les peintres des milieux artistiques qu'il fréquente, Louis Tocqué, Jean-Baptiste Oudry, Charles Nicolas Cochin, pour citer les principaux, sont convoqués pour évaluer l'art de Perronneau dans ce que Cochin appelle la « ressemblance savante ». Les peintres les plus ambitieux s'attachent à son interprétation malgré les difficultés dues aux réactions de leur clientèle. La façon dont procède Perronneau est ici envisagée suivant deux aspects : d'une part, la composition du portrait selon une idée du naturel qui détermine l'attitude et une certaine imitation des défauts ; d'autre part, l'imitation de la nature qui réside dans les qualités de l'art, et donc picturales, appréciées des amateurs avertis. La façon qui lui est propre est de composer un naturel selon des poses variées, fondé sur la noblesse de l'attitude conjuguée à la simplicité, conformément à l'idéal courtois en vigueur depuis le XVIe siècle ; elle reste immuable au long de sa carrière. Dans l'imitation de la nature, sont mis en évidence des aspects cachés du faire lors de la mise en place du relief de la figure, les références aux maîtres anciens, Rembrandt, Van Dyck, la conscience de la distance à laquelle le tableau doit être vu, qui atténue la vigueur de la touche, comme le fait le verre qui sert aussi de vernis au pastel. L'idée de sprezzatura qui régit la distinction légère de la pose se décèle à la surface de ses portraits à travers l'apparence de facilité qu'il s'attache à leur donner, et jusque dans l'inimitable retouche finale. Grâce à la qualité de sa retouche, Perronneau accroît sensiblement dans certaines oeuvres à partir de 1768 l'expression savante et inventive de son sentiment. Afin de peindre comme il l'entend tout en gagnant sa vie et celle de sa famille, le peintre prend le parti de voyager comme l'y autorisait la libéralité de son statut. Dans la troisième partie est étudiée la trame de ses voyages que constituent les recommandations dont il bénéficie. Les identités des quatre cent dix modèles peints en France et en Europe de 1740 à 1782 sont systématiquement étudiées dans le catalogue ainsi que les conditions de leur rencontre avec le peintre. Elles décrivent une clientèle variée représentative de la mobilité des statuts dans l'Europe d'ancien Régime dont la composante nouvelle est la clientèle du monde de la banque internationale et du grand commerce. Leurs portraits peints à l'étranger ou dans les villes de Province que Perronneau présente au Salon irritent et inquiètent l'élite parisienne et donne lieu à de nouvelles tensions avec l'éternel rival, Delatour, au Salon de 1767. Perronneau se sent à juste titre évincé de Paris. Alors que l'on avait pu penser qu'il avait peu souffert des critiques du philosophe qui ne furent publiées qu'après sa mort, il apparaît que sa réputation pâtit de ses jugements diffusés par les nouvelles à la main au-delà des frontières et jusqu'auprès de la prestigieuse clientèle qui lui était acquise. Le travail sur son la carrière et l'oeuvre de Perronneau permet surtout une compréhension nouvelle de l'art du portrait au milieu du siècle, au moment où la représentation individuelle n'a jamais encore touché un aussi large public et où l'Académie ambitionne d'élever cet art au plus haut degré.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Rapport de synthèse Cette thèse consiste en trois essais sur les stratégies optimales de dividendes. Chaque essai correspond à un chapitre. Les deux premiers essais ont été écrits en collaboration avec les Professeurs Hans Ulrich Gerber et Elias S. W. Shiu et ils ont été publiés; voir Gerber et al. (2006b) ainsi que Gerber et al. (2008). Le troisième essai a été écrit en collaboration avec le Professeur Hans Ulrich Gerber. Le problème des stratégies optimales de dividendes remonte à de Finetti (1957). Il se pose comme suit: considérant le surplus d'une société, déterminer la stratégie optimale de distribution des dividendes. Le critère utilisé consiste à maximiser la somme des dividendes escomptés versés aux actionnaires jusqu'à la ruine2 de la société. Depuis de Finetti (1957), le problème a pris plusieurs formes et a été résolu pour différents modèles. Dans le modèle classique de théorie de la ruine, le problème a été résolu par Gerber (1969) et plus récemment, en utilisant une autre approche, par Azcue and Muler (2005) ou Schmidli (2008). Dans le modèle classique, il y a un flux continu et constant d'entrées d'argent. Quant aux sorties d'argent, elles sont aléatoires. Elles suivent un processus à sauts, à savoir un processus de Poisson composé. Un exemple qui correspond bien à un tel modèle est la valeur du surplus d'une compagnie d'assurance pour lequel les entrées et les sorties sont respectivement les primes et les sinistres. Le premier graphique de la Figure 1 en illustre un exemple. Dans cette thèse, seules les stratégies de barrière sont considérées, c'est-à-dire quand le surplus dépasse le niveau b de la barrière, l'excédent est distribué aux actionnaires comme dividendes. Le deuxième graphique de la Figure 1 montre le même exemple du surplus quand une barrière de niveau b est introduite, et le troisième graphique de cette figure montre, quand à lui, les dividendes cumulés. Chapitre l: "Maximizing dividends without bankruptcy" Dans ce premier essai, les barrières optimales sont calculées pour différentes distributions du montant des sinistres selon deux critères: I) La barrière optimale est calculée en utilisant le critère usuel qui consiste à maximiser l'espérance des dividendes escomptés jusqu'à la ruine. II) La barrière optimale est calculée en utilisant le second critère qui consiste, quant à lui, à maximiser l'espérance de la différence entre les dividendes escomptés jusqu'à la ruine et le déficit au moment de la ruine. Cet essai est inspiré par Dickson and Waters (2004), dont l'idée est de faire supporter aux actionnaires le déficit au moment de la ruine. Ceci est d'autant plus vrai dans le cas d'une compagnie d'assurance dont la ruine doit être évitée. Dans l'exemple de la Figure 1, le déficit au moment de la ruine est noté R. Des exemples numériques nous permettent de comparer le niveau des barrières optimales dans les situations I et II. Cette idée, d'ajouter une pénalité au moment de la ruine, a été généralisée dans Gerber et al. (2006a). Chapitre 2: "Methods for estimating the optimal dividend barrier and the probability of ruin" Dans ce second essai, du fait qu'en pratique on n'a jamais toute l'information nécessaire sur la distribution du montant des sinistres, on suppose que seuls les premiers moments de cette fonction sont connus. Cet essai développe et examine des méthodes qui permettent d'approximer, dans cette situation, le niveau de la barrière optimale, selon le critère usuel (cas I ci-dessus). Les approximations "de Vylder" et "diffusion" sont expliquées et examinées: Certaines de ces approximations utilisent deux, trois ou quatre des premiers moments. Des exemples numériques nous permettent de comparer les approximations du niveau de la barrière optimale, non seulement avec les valeurs exactes mais également entre elles. Chapitre 3: "Optimal dividends with incomplete information" Dans ce troisième et dernier essai, on s'intéresse à nouveau aux méthodes d'approximation du niveau de la barrière optimale quand seuls les premiers moments de la distribution du montant des sauts sont connus. Cette fois, on considère le modèle dual. Comme pour le modèle classique, dans un sens il y a un flux continu et dans l'autre un processus à sauts. A l'inverse du modèle classique, les gains suivent un processus de Poisson composé et les pertes sont constantes et continues; voir la Figure 2. Un tel modèle conviendrait pour une caisse de pension ou une société qui se spécialise dans les découvertes ou inventions. Ainsi, tant les approximations "de Vylder" et "diffusion" que les nouvelles approximations "gamma" et "gamma process" sont expliquées et analysées. Ces nouvelles approximations semblent donner de meilleurs résultats dans certains cas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé Les tumeurs sont diverses et hétérogènes, mais toutes partagent la capacité de proliférer sans contrôle. Une prolifération dérégulée de cellules couplée à une insensibilité à une réponse apoptotique constitue une condition minimale pour que l'évolution d'une tumeur se produise. Un des traitements les plus utilisés pour traité le cancer à l'heure actuelle sont les chimiothérapies, qui sont fréquemment des composés chimiques qui induisent des dommages dans l'ADN. Les agents anticancéreux sont efficaces seulement quand les cellules tumorales sont plus aisément tuées que le tissu normal environnant. L'efficacité de ces agents est en partie déterminée par leur capacité à induire l'apoptose. Nous avons récemment démontré que la protéine RasGAP est un substrat non conventionnel des caspases parce elle peut induire à la fois des signaux anti et pro-apoptotiques, selon l'ampleur de son clivage par les caspases. A un faible niveau d'activité des caspases, RasGAP est clivé, générant deux fragments (le fragment N et le fragment C). Le fragment N semble être un inhibiteur général de l'apoptose en aval de l'activation des caspases. À des niveaux plus élevés d'activité des caspases, la capacité du fragment N de contrecarrer l'apoptose est supprimée quand il est clivé à nouveau par les caspases. Ce dernier clivage produit deux nouveaux fragments, N 1 et N2, qui contrairement au fragment N sensibilisent efficacement des cellules cancéreuses envers des agents chimiothérapeutiques. Dans cette étude nous avons prouvé qu'un peptide, appelé par la suite TAT-RasGAP317-326, qui est dérivé du fragment N2 de RasGAP et est rendu perméable aux cellules, sensibilise spécifiquement des cellules cancéreuses à trois génotoxines différentes utilisées couramment dans des traitements anticancéreux, et cela dans des modèles in vitro et in vivo. Il est important de noté que ce peptide semble ne pas avoir d'effet sur des cellules non cancéreuses. Nous avons également commencé à caractériser les mécanismes moléculaires expliquant les fonctions de sensibilisation de TAT-RasGAP317-326. Nous avons démontré que le facteur de transcription p53 et une protéine sous son activité transcriptionelle, nommée Puma, sont indispensables pour l'activité de TAT-RasGAP317-326. Nous avons également prouvé que TAT-RasGAP317-326 exige la présence d'une protéine appelée G3BP1, une protéine se liant a RasGAP, pour potentialisé les effets d'agents anticancéreux. Les données obtenues dans cette étude montrent qu'il pourrait être possible d'augmenter l'efficacité des chimiothérapies à l'aide d'un composé capable d'augmenter la sensibilité des tumeurs aux génotoxines et ainsi pourrait permettre de traiter de manière plus efficace des patients sous traitement chimiothérapeutiques. Summary Tumors are diverse and heterogeneous, but all share the ability to proliferate without control. Deregulated cell proliferation coupled with suppressed apoptotic sensitivity constitutes a minimal requirement upon which tumor evolution occurs. One of the most commonly used treatments is chemotherapy, which frequently uses chemical compounds that induce DNA damages. Anticancer agents are effective only when tumors cells are more readily killed than the surrounding normal tissue. The efficacy of these agents is partly determined by their ability to induce apoptosis. We have recently demonstrated that the protein RasGAP is an unconventional caspase substrate because it can induce both anti- and pro-apoptotic signals, depending on the extent of its cleavage by caspases. At low levels of caspase activity, RasGAP is cleaved, generating an N-terminal fragment (fragment N) and a C-terminal fragment (fragment C). Fragment N appears to be a general Mocker of apoptosis downstream of caspase activation. At higher levels of caspase activity, the ability of fragment N to counteract apoptosis is suppressed when it is further cleaved. This latter cleavage event generates two fragments, N1 and N2, which in contrast to fragment N potently sensitizes cancer cells toward DNA-damaging agents induced apoptosis. In the present study we show that a cell permeable peptide derived from the N2 fragment of RasGAP, thereafter called TAT-RasGAP317-326, specifically sensitizes cancer cells to three different genotoxins commonly used in chemotherapy in vitro and in vivo models. Importantly this peptide seems not to have any effect on non cancer cells. We have also started to characterize the molecular mechanisms underlying the sensitizing functions of TAT-RasGAP317-326. We have demonstrated that the p53 transcription factor and a protein under its transcriptional activity, called Puma, are required for the activity of TATRasGAP317-326. We have also showed that TAT-RasGAP317-326 requires the presence of a protein called G3BP1, which have been shown to interact with RasGAP, to increase the effect of the DNA-damaging drug cisplatin. The data obtained in this study showed that it is possible to increase the efficacy of current used chemotherapies with a compound able to increase the efficacy of genotoxins which could be beneficial for patients subjected to chemotherapy.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

DES FRONTIERES ENTRE TEXTE ET CONTEXTE : POINTS DE VUE THEORIQUES - Sur la métacommunication / C. Sluzki - De l'amour du texte à l'amour du contexte / J. Cosnier - Le dialogue entre l'intra-psychique et l'interpersonnel : une perspective développmentale / D. Stern - Texte et contexte. La perspective thermodynamique / R. Fivaz - Une position constructiviste pour la thérapie familiale / L. Hoffman MICROPROCESSUS DANS LES CONVERSATIONS : POINTS DE VUE EMPIRIQUES ET DEVELOPPEMENTAUX - Le contrat comme relation. Une étude des cadres sociaux du consentement / M. Modak - Recherche sur les axiomes de "Une logique de la communication" / J. Beavin-Bavelas - Distance physique ou distance psychique ? Les formations corporelles parents-bébé comme contextes de l'autonomisation dans la famille / C. Gertsch-Bettens - L'encadrement parental dans le jeu à trois. Une recherche exploratoire d'inspiration systémique / A. Corbosz-Warnery - L'évolution des formations corporelles lors de thérapies familiales en fonction de l'alliance thérapeutique / S. Serpa-Rusconi, P.-A. Doudin - Genèse de la négociation interpersonnelle des conflits : point de vue pragmatique / H. Jisa LES RECONTEXTUALISATIONS EN THERAPIE FAMILIALE - De l'ajustement du cadre en thérapie familiale / F. Seywert, E. Fivaz Depeursinge - Les questions réflexives, source d'autoguérison / K. Tomm...[et al.] - Langage et changement. L'usage de paroles-clés en thérapie / J. Pereira - Texte et contexte en psychosomatique : des modèles réductionnistes à une épistémologie de la complexité / L. Onnis

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RésuméLes récentes thérapies anticancéreuses développées visent principalement à inhiber les protéines mutées et responsables de la croissance des cellules cancéreuses. Dans ce contexte, l'inhibition d'une protéine appelée mTOR est une stratégie prometteuse. En effet, mTOR régule la prolifération et la survie cellulaire et mTOR est fréquemment activé dans les cellules tumorales.De nombreuses études ont démontré l'efficacité anti-tumorale d'inhibiteurs de mTOR telle que la rapamycine aussi bien dans des modèles expérimentaux que chez les patients souffrant de cancers. Ces études ont cependant également démontré que l'inhibition de mTOR induit l'activation d'autres protéines cellulaires qui vont induire la prolifération cellulaire et ainsi limiter l'effet anti-tumoral des inhibiteurs de mTOR. En particulier, la rapamycine induit l'activation de la voie de signalisation PI3K/Akt qui joue un rôle prépondérant dans la croissance cellulaire.Dans ce travail, nous avons étudié l'effet de la rapamycine sur une protéine appelée JNK ainsi que le rôle de JNK sur les effets anti-tumoraux de la rapamycine. JNK est une protéine impliquée dans la survie et la prolifération cellulaire. Elle est activée notamment par la voie de signalisation PI3K/Akt. De ce fait, nous avons émis l'hypothèse que la rapamycine induirait l'activation de JNK, réduisant ainsi l'efficacité anti¬tumorale de la rapamycine. En utilisant une lignée cellulaire tumorale (LS174T) dérivée du cancer colorectal, nous avons observé que la rapamycine induisait l'activation de JNK. Nous avons également observé que l'inhibition de JNK par le SP600125, un inhibiteur chimique de JNK, ou par la surexpression d'un dominant négatif de JNK dans les cellules LS174T potentialisait l'effet anti-tumoral de la rapamycine in vitro ainsi que dans un modèle murin de xénogreffe tumorale in vivo.En conclusion, nous avons observé que l'activation de JNK induite par la rapamycine entraine une réduction de l'effet anti-tumoral de cette dernière. Nous proposons ainsi que l'inhibition simultanée de JNK et de mTOR représente une nouvelle option thérapeutique en oncologie qu'il conviendra de confirmer dans d'autres modèles expérimentaux avant d'être testée dans des études cliniques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The spatial resolution visualized with hydrological models and the conceptualized images of subsurface hydrological processes often exceed resolution of the data collected with classical instrumentation at the field scale. In recent years it was possible to increasingly diminish the inherent gap to information from point like field data through the application of hydrogeophysical methods at field-scale. With regards to all common geophysical exploration techniques, electric and electromagnetic methods have arguably to greatest sensitivity to hydrologically relevant parameters. Of particular interest in this context are induced polarisation (IP) measurements, which essentially constrain the capacity of a probed subsurface region to store an electrical charge. In the absence of metallic conductors the IP- response is largely driven by current conduction along the grain surfaces. This offers the perspective to link such measurements to the characteristics of the solid-fluid-interface and thus, at least in unconsolidated sediments, should allow for first-order estimates of the permeability structure.¦While the IP-effect is well explored through laboratory experiments and in part verified through field data for clay-rich environments, the applicability of IP-based characterizations to clay-poor aquifers is not clear. For example, polarization mechanisms like membrane polarization are not applicable in the rather wide pore-systems of clay free sands, and the direct transposition of Schwarz' theory relating polarization of spheres to the relaxation mechanism of polarized cells to complex natural sediments yields ambiguous results.¦In order to improve our understanding of the structural origins of IP-signals in such environments as well as their correlation with pertinent hydrological parameters, various laboratory measurements have been conducted. We consider saturated quartz samples with a grain size spectrum varying from fine sand to fine gravel, that is grain diameters between 0,09 and 5,6 mm, as well as corresponding pertinent mixtures which can be regarded as proxies for widespread alluvial deposits. The pore space characteristics are altered by changing (i) the grain size spectra, (ii) the degree of compaction, and (iii) the level of sorting. We then examined how these changes affect the SIP response, the hydraulic conductivity, and the specific surface area of the considered samples, while keeping any electrochemical variability during the measurements as small as possible. The results do not follow simple assumptions on relationships to single parameters such as grain size. It was found that the complexity of natural occurring media is not yet sufficiently represented when modelling IP. At the same time simple correlation to permeability was found to be strong and consistent. Hence, adaptations with the aim of better representing the geo-structure of natural porous media were applied to the simplified model space used in Schwarz' IP-effect-theory. The resulting semi- empiric relationship was found to more accurately predict the IP-effect and its relation to the parameters grain size and permeability. If combined with recent findings about the effect of pore fluid electrochemistry together with advanced complex resistivity tomography, these results will allow us to picture diverse aspects of the subsurface with relative certainty. Within the framework of single measurement campaigns, hydrologiste can than collect data with information about the geo-structure and geo-chemistry of the subsurface. However, additional research efforts will be necessary to further improve the understanding of the physical origins of IP-effect and minimize the potential for false interpretations.¦-¦Dans l'étude des processus et caractéristiques hydrologiques des subsurfaces, la résolution spatiale donnée par les modèles hydrologiques dépasse souvent la résolution des données du terrain récoltées avec des méthodes classiques d'hydrologie. Récemment il est possible de réduire de plus en plus cet divergence spatiale entre modèles numériques et données du terrain par l'utilisation de méthodes géophysiques, notamment celles géoélectriques. Parmi les méthodes électriques, la polarisation provoquée (PP) permet de représenter la capacité des roches poreuses et des sols à stocker une charge électrique. En l'absence des métaux dans le sous-sol, cet effet est largement influencé par des caractéristiques de surface des matériaux. En conséquence les mesures PP offrent une information des interfaces entre solides et fluides dans les matériaux poreux que nous pouvons lier à la perméabilité également dirigée par ces mêmes paramètres. L'effet de la polarisation provoquée à été étudié dans différentes études de laboratoire, ainsi que sur le terrain. A cause d'une faible capacité de polarisation des matériaux sableux, comparé aux argiles, leur caractérisation par l'effet-PP reste difficile a interpréter d'une manière cohérente pour les environnements hétérogènes.¦Pour améliorer les connaissances sur l'importance de la structure du sous-sol sableux envers l'effet PP et des paramètres hydrologiques, nous avons fait des mesures de laboratoire variées. En détail, nous avons considéré des échantillons sableux de quartz avec des distributions de taille de grain entre sables fins et graviers fins, en diamètre cela fait entre 0,09 et 5,6 mm. Les caractéristiques de l'espace poreux sont changées en modifiant (i) la distribution de taille des grains, (ii) le degré de compaction, et (iii) le niveau d'hétérogénéité dans la distribution de taille de grains. En suite nous étudions comment ces changements influencent l'effet-PP, la perméabilité et la surface spécifique des échantillons. Les paramètres électrochimiques sont gardés à un minimum pendant les mesures. Les résultats ne montrent pas de relation simple entre les paramètres pétro-physiques comme par exemples la taille des grains. La complexité des media naturels n'est pas encore suffisamment représenté par les modèles des processus PP. Néanmoins, la simple corrélation entre effet PP et perméabilité est fort et consistant. En conséquence la théorie de Schwarz sur l'effet-PP a été adapté de manière semi-empirique pour mieux pouvoir estimer la relation entre les résultats de l'effet-PP et les paramètres taille de graines et perméabilité. Nos résultats concernant l'influence de la texture des matériaux et celles de l'effet de l'électrochimie des fluides dans les pores, permettront de visualiser des divers aspects du sous-sol. Avec des telles mesures géo-électriques, les hydrologues peuvent collectionner des données contenant des informations sur la structure et la chimie des fluides des sous-sols. Néanmoins, plus de recherches sur les origines physiques de l'effet-PP sont nécessaires afin de minimiser le risque potentiel d'une mauvaise interprétation des données.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Version abregée L'ischémie cérébrale est la troisième cause de mort dans les pays développés, et la maladie responsable des plus sérieux handicaps neurologiques. La compréhension des bases moléculaires et anatomiques de la récupération fonctionnelle après l'ischémie cérébrale est donc extrêmement importante et représente un domaine d'intérêt crucial pour la recherche fondamentale et clinique. Durant les deux dernières décennies, les chercheurs ont tenté de combattre les effets nocifs de l'ischémie cérébrale à l'aide de substances exogènes qui, bien que testées avec succès dans le domaine expérimental, ont montré un effet contradictoire dans l'application clinique. Une approche différente mais complémentaire est de stimuler des mécanismes intrinsèques de neuroprotection en utilisant le «modèle de préconditionnement» : une brève insulte protège contre des épisodes d'ischémie plus sévères à travers la stimulation de voies de signalisation endogènes qui augmentent la résistance à l'ischémie. Cette approche peut offrir des éléments importants pour clarifier les mécanismes endogènes de neuroprotection et fournir de nouvelles stratégies pour rendre les neurones et la glie plus résistants à l'attaque ischémique cérébrale. Dans un premier temps, nous avons donc étudié les mécanismes de neuroprotection intrinsèques stimulés par la thrombine, un neuroprotecteur «préconditionnant» dont on a montré, à l'aide de modèles expérimentaux in vitro et in vivo, qu'il réduit la mort neuronale. En appliquant une technique de microchirurgie pour induire une ischémie cérébrale transitoire chez la souris, nous avons montré que la thrombine peut stimuler les voies de signalisation intracellulaire médiées par MAPK et JNK par une approche moléculaire et l'analyse in vivo d'un inhibiteur spécifique de JNK (L JNK) .Nous avons également étudié l'impact de la thrombine sur la récupération fonctionnelle après une attaque et avons pu démontrer que ces mécanismes moléculaires peuvent améliorer la récupération motrice. La deuxième partie de cette étude des mécanismes de récupération après ischémie cérébrale est basée sur l'investigation des bases anatomiques de la plasticité des connections cérébrales, soit dans le modèle animal d'ischémie transitoire, soit chez l'homme. Selon des résultats précédemment publiés par divers groupes ,nous savons que des mécanismes de plasticité aboutissant à des degrés divers de récupération fonctionnelle sont mis enjeu après une lésion ischémique. Le résultat de cette réorganisation est une nouvelle architecture fonctionnelle et structurelle, qui varie individuellement selon l'anatomie de la lésion, l'âge du sujet et la chronicité de la lésion. Le succès de toute intervention thérapeutique dépendra donc de son interaction avec la nouvelle architecture anatomique. Pour cette raison, nous avons appliqué deux techniques de diffusion en résonance magnétique qui permettent de détecter les changements de microstructure cérébrale et de connexions anatomiques suite à une attaque : IRM par tenseur de diffusion (DT-IR1V) et IRM par spectre de diffusion (DSIRM). Grâce à la DT-IRM hautement sophistiquée, nous avons pu effectuer une étude de follow-up à long terme chez des souris ayant subi une ischémie cérébrale transitoire, qui a mis en évidence que les changements microstructurels dans l'infarctus ainsi que la modification des voies anatomiques sont corrélés à la récupération fonctionnelle. De plus, nous avons observé une réorganisation axonale dans des aires où l'on détecte une augmentation d'expression d'une protéine de plasticité exprimée dans le cône de croissance des axones (GAP-43). En appliquant la même technique, nous avons également effectué deux études, rétrospective et prospective, qui ont montré comment des paramètres obtenus avec DT-IRM peuvent monitorer la rapidité de récupération et mettre en évidence un changement structurel dans les voies impliquées dans les manifestations cliniques. Dans la dernière partie de ce travail, nous avons décrit la manière dont la DS-IRM peut être appliquée dans le domaine expérimental et clinique pour étudier la plasticité cérébrale après ischémie. Abstract Ischemic stroke is the third leading cause of death in developed countries and the disease responsible for the most serious long-term neurological disability. Understanding molecular and anatomical basis of stroke recovery is, therefore, extremely important and represents a major field of interest for basic and clinical research. Over the past 2 decades, much attention has focused on counteracting noxious effect of the ischemic insult with exogenous substances (oxygen radical scavengers, AMPA and NMDA receptor antagonists, MMP inhibitors etc) which were successfully tested in the experimental field -but which turned out to have controversial effects in clinical trials. A different but complementary approach to address ischemia pathophysiology and treatment options is to stimulate and investigate intrinsic mechanisms of neuroprotection using the "preconditioning effect": applying a brief insult protects against subsequent prolonged and detrimental ischemic episodes, by up-regulating powerful endogenous pathways that increase resistance to injury. We believe that this approach might offer an important insight into the molecular mechanisms responsible for endogenous neuroprotection. In addition, results from preconditioning model experiment may provide new strategies for making brain cells "naturally" more resistant to ischemic injury and accelerate their rate of functional recovery. In the first part of this work, we investigated down-stream mechanisms of neuroprotection induced by thrombin, a well known neuroprotectant which has been demonstrated to reduce stroke-induced cell death in vitro and in vivo experimental models. Using microsurgery to induce transient brain ischemia in mice, we showed that thrombin can stimulate both MAPK and JNK intracellular pathways through a molecular biology approach and an in vivo analysis of a specific kinase inhibitor (L JNK1). We also studied thrombin's impact on functional recovery demonstrating that these molecular mechanisms could enhance post-stroke motor outcome. The second part of this study is based on investigating the anatomical basis underlying connectivity remodeling, leading to functional improvement after stroke. To do this, we used both a mouse model of experimental ischemia and human subjects with stroke. It is known from previous data published in literature, that the brain adapts to damage in a way that attempts to preserve motor function. The result of this reorganization is a new functional and structural architecture, which will vary from patient to patient depending on the anatomy of the damage, the biological age of the patient and the chronicity of the lesion. The success of any given therapeutic intervention will depend on how well it interacts with this new architecture. For this reason, we applied diffusion magnetic resonance techniques able to detect micro-structural and connectivity changes following an ischemic lesion: diffusion tensor MRI (DT-MRI) and diffusion spectrum MRI (DS-MRI). Using DT-MRI, we performed along-term follow up study of stroke mice which showed how diffusion changes in the stroke region and fiber tract remodeling is correlating with stroke recovery. In addition, axonal reorganization is shown in areas of increased plasticity related protein expression (GAP 43, growth axonal cone related protein). Applying the same technique, we then performed a retrospective and a prospective study in humans demonstrating how specific DTI parameters could help to monitor the speed of recovery and show longitudinal changes in damaged tracts involved in clinical symptoms. Finally, in the last part of this study we showed how DS-MRI could be applied both to experimental and human stroke and which perspectives it can open to further investigate post stroke plasticity.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse explore le rôle de la normalisation technique dans les délocalisations de services en Inde et au Maroc. La recherche appréhende le phénomène en opposant explicitement ou implicitement deux modèles. Un modèle serviciel dans lequel les activités de services sont difficilement délocalisables parce que non-mesurables ; un modèle industriel qui articule des activités de services mesurables par les normes techniques et susceptibles d'être délocalisés dans les pays du Sud à bas salaires. Notre thèse s'interroge sur la manière dont les relations Nord-Sud peuvent s'appréhender au sein de cette dichotomie et propose une réflexion épistémologique sur les représentations culturelles induites au sein de ce cadrage. A partir d'une perspective qui combine les apports de l'économie politique culturelle, la sociologie économique et les études postcoloniales au sein de l'économie politique internationale, elle mobilise trois catégories (la normalisation technique, l'imaginaire économique, la qualité). Ces catégories nous permettent de suggérer la centralité des enjeux de pouvoirs dans la définition de ce que sont les activités de services. L'analyse empirique suggère que les délocalisations de services au Maroc et en Inde expriment des réalités plus poreuses et plus dynamiques que la dichotomie entre modèle serviciel et modèle industriel laisse entendre. Elle met en évidence la capacité d'agir des acteurs des pays du Sud et suggère que les normes techniques ont une fonction politique à travers leurs fonctions de mesure. Abstract This thesis explores the role of technical standards in offshore outsourcing in India and Morocco. Current research captures the phenomenon while opposing explicitly or implicitly two models of production. A service-based model in which service activities are difficult to relocate because they are non-measurable; an industrial model that articulates service activities measured with technical standards and that may be outsourced to developing countries with low wages. Our thesis questions how North-South relations can be grasped within this dichotomy and offers an epistemologica! reflection on cultural representations induced within this framework. From a perspective that combines the contributions of cultural political economy, economic sociology and postcolonial studies in international political economy, it mobilizes three categories (technical standardization, the economic imaginary and quality). These categories allow us to suggest the centrality of power issues in the definition of service activities. The empirical analysis suggests that offshoring of services in Morocco and India express more porous and dynamic realities than the dichotomy suggested between a service model and an industrial model. It highlights the ability of the actors to act in the South and suggests that technical standards have a political function through their measurement functions.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

ABSTRACT Asthma is a complex inflammatory syndrome caused by environmental factors in predisposed individuals (atopics). Its severity correlates with the presence of activated T lymphocytes and eosinophils in the bronchoalveolar lavage fluid (BALF). Induction of tolerance via the nasal route results in reduced recruitment of eosinophils into BALF upon challenge, inhibition of TH2 pro-inflammatory cytokine secretion and T cell hyporesponsiveness. Recently, CD4+CD25+ natural regulatory T cells (Treg) were proposed as key players in controlling the development of asthma and allergic disease. The objective of the present study is to investigate the role of CD4+CD25+ regulatory T cells in the mechanisms leading to tolerance in an established model of asthma. In this goal we depleted CD4+CD25+ T cells at different times during asthma and tolerance induction protocol in mice and looked at efficiency of tolerization (intranasal application of high dose of allergen) in the absence of natural Tregs. First, ovalbumin-sensitized mice were depleted of CD25+ T cells by intraperitoneal injection of anti-CD25 mAb (PC61) either for along-term (repeated injections of anti-CD25 from day 31 until the end of the protocol) or a short-term period (single injection of anti-CD25 before or after tolerance induction). We demonstrated that the long-term depletion of CD4+CD25+ T cells severely hampered tolerance induction (marked enhancement in eosinophil recruitment into BALF and a vigorous antigen specific T cell response to OVA upon allergen challenge) whereas transient depletions were not sufficient to do so. We then characterized T cell subsets by flow cytometry and observed that a large part of CD4+CD25+ T cells express Foxp3, an established marker of regulatory T cells. We also tested in-vitro suppressor activity of CD4+CD25+ T cells from tolerized mice by cell proliferation assay in coculture and observed a strong suppressive activity. Our data suggest that CD4+CD25+ T cells with regulatory properties play a crucial role in the induction of tolerance via the nasal route. The relationship between CD25+ natural Treg and inducible IL-10+ TRl-type Treg will have to be defined. RESUME L'asthme est un syndrome inflammatoire complexe provoqué par des facteurs environnementaux chez des individus génétiquement prédisposés (atopiques). Sa sévérité corrèle avec la présence des lymphocytes T activés et d'éosinophiles dans le lavage bronchoalvéolaire (BAL). L'induction de la tolérance par la voie nasale résulte en une diminution du recrutement des eosinophils dans le BAL, une inhibition de la sécrétion de cytokines pro-inflammatoires de type TH2 et de l'hypo-réponse des cellules T à l'allergène. Récemment, les cellules régulatrices «naturelles » de type CD4+CD25+ T (Tregs) ont été proposées comme acteurs essentiels dans le développement de l'asthme et de l'allergie. L'objectif de cette étude est d'étudier le rôle des cellules régulatrices CD4+CD25+ T dans les mécanismes menant à la tolérance dans un modèle établi d'asthme. Dans ce but nous avons déplété les cellules de CD4+CD25+ T à différents temps au cours du protocole d'induction d'asthme et de tolérance et nous avons regardé l'efficacité de l'induction de tolérance (application intranasale d'une dose importante d'allergène) en l'absence de Tregs. Dans un premier temps des souris sensibilisées à l'ovalbumine (OVA) ont été déplétées en cellules CD25+ T par l'injection intrapéritonéale d'anti-CD25 mAb (PC61) pour une longue période (injections répétées d'anti-CD25 du jour 31 jusqu'à la fin du protocole) ou pour une courte période (injection unique d'anti-CD25 avant ou après l'induction de tolérance). Nous avons démontré que la déplétion à long t erme des cellules de CD4+CD25+ T a empêché l'induction de tolérance (recrutement accru d'éosinophiles dans le BAL et une réponse vigoureuse des cellules T spécifiques de l'antigène après exposition à l'allergène) tandis des déplétions à court-terme n'ont pas cet effet. Nous avons ensuite caractérisé des sous-populations de cellules T par cytométrie de flux. Nous avons observé que la majorité des cellules CD4+CD25+ T expriment Foxp3, un marqueur établi des cellules régulatrices. Nous avons également examiné in vitro l'activité régulatrice des cellules T CD4+CD25+ issues de souris tolérisées. La prolifération de cellules T en coculture a démontré une forte activité suppressive des cellules CD4+CD25+. Nos données suggèrent que des cellules T CD4+CD25+ ayant des propriétés régulatrices jouent un rôle crucial dans l'induction de la tolérance par la voie nasale. Le rapport entre les cellules régulatrices naturelles CD4+CD25+ et les cellules régulatrices inductible de type TR1 I1-10+ devra être défini. RESUME DESTINE A UN LARGE PUBLIC L'asthme est une maladie inflammatoire des bronches, caractérisée par des crises de dyspnée (gêne respiratoire) témoignant d'une activation brutale des muscles bronchoconstricteurs, auxquelles s'associent un oedème et une hypersécrétion des muqueuses des voies aériennes ainsi qu'une importante production d'anticorps de l'allergie (IgE). Chez la plupart des enfants atteints et chez près de la moitié des adultes concernés par l'asthme, c'est une allergie à des substances présentes dans l'air environnant (acariens, pollens ou poils d'animaux) qui est à l'origine de la maladie. . Le traitement actuel de l'asthme repose d'une part sur le soulagement des symptômes grâce à des produits à base de stéroïdes ou des bronchodilatateurs. D'autre part, l'immunothérapie spécifique (aussi appelée désensibilisation) permet d'améliorer l'asthme et de «reprogrammer» le système immunitaire. C'est à ce jour, le seul moyen connu de faire régresser une allergie. Cependant l'immunothérapie prend beaucoup de temps (3 à 5 ans) et ne marche pas à tous les coups ni pour tous les antigènes. Il est donc important de mieux comprendre les mécanismes impliqués lors d'un tel traitement afin d'en améliorer l'efficacité. Af n de pouvoir investiguer en détail ces mécanismes des modèles d'immunothérapie ont été mis au point chez la souris. Notre étude se base sur un modèle d'asthme allergique chez la souris. Des souris sont rendues allergiques à l'ovalbumine (OVA) et présentent alors les caractéristiques majeures de l'asthme humain (recrutement de cellules inflammatoires dans les poumons, augmentation de la production d'IgE et de la résistance des bronches aux flux respiratoires). Ces souris asthmatiques une fois traitées par l'application nasale d'OVA (forme d'immunothérapie muqueuse) ne développent plus de réaction allergique lors d'une ré-exposition à l'allergène. Notre hypothèse est que cette «guérison» (tolérance) est liée à l'action de cellules (lymphocytes T CD4) dites «régulatrices» et caractérisées par le marqueur CD25. Pour le démontrer, nous avons éliminé ces cellules «régulatrices» CD25 de nos souris asthmatiques grâce à un anticorps monoclonal spécifique. Nous n'avons dès lors plus été en mesure d'induire une tolérance à l'allergène. Ceci suggère donc un rôle clé des cellules «régulatrices» T CD4+CD25+ dans la réussite de l'immunothérapie nasale dans notre modèle. Nos résultats n'excluent pas la participation d'autres cellules telles que les lymphocytes producteurs d'IL-10 (lymphocytes régulateurs induits). Le rôle respectif de ces sous-populations régulatrices devra être examiné dans les études à venir. Une meilleure maîtrise des mécanismes de régulation pourrait s'avérer cruciale pour améliorer les thérapies de l'asthme.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RésuméLa coexistence de nombreuses espèces différentes a de tout temps intrigué les biologistes. La diversité et la composition des communautés sont influencées par les perturbations et l'hétérogénéité des conditions environnementales. Bien que dans la nature la distribution spatiale des conditions environnementales soit généralement autocorrélée, cet aspect est rarement pris en compte dans les modèles étudiant la coexistence des espèces. Dans ce travail, nous avons donc abordé, à l'aide de simulations numériques, la coexistence des espèces ainsi que leurs caractéristiques au sein d'un environnement autocorrélé.Afin de prendre en compte cet élément spatial, nous avons développé un modèle de métacommunauté (un ensemble de communautés reliées par la dispersion des espèces) spatialement explicite. Dans ce modèle, les espèces sont en compétition les unes avec les autres pour s'établir dans un nombre de places limité, dans un environnement hétérogène. Les espèces sont caractérisées par six traits: optimum de niche, largeur de niche, capacité de dispersion, compétitivité, investissement dans la reproduction et taux de survie. Nous nous sommes particulièrement intéressés à l'influence de l'autocorrélation spatiale et des perturbations sur la diversité des espèces et sur les traits favorisés dans la métacommunauté. Nous avons montré que l'autocorrélation spatiale peut avoir des effets antagonistes sur la diversité, en fonction du taux de perturbations considéré. L'influence de l'autocorrélation spatiale sur la capacité de dispersion moyenne dans la métacommunauté dépend également des taux de perturbations et survie. Nos résultats ont aussi révélé que de nombreuses espèces avec différents degrés de spécialisation (i.e. différentes largeurs de niche) peuvent coexister. Toutefois, les espèces spécialistes sont favorisées en absence de perturbations et quand la dispersion est illimitée. A l'opposé, un taux élevé de perturbations sélectionne des espèces plus généralistes, associées avec une faible compétitivité.L'autocorrélation spatiale de l'environnement, en interaction avec l'intensité des perturbations, influence donc de manière considérable la coexistence ainsi que les caractéristiques des espèces. Ces caractéristiques sont à leur tour souvent impliquées dans d'importants processus, comme le fonctionnement des écosystèmes, la capacité des espèces à réagir aux invasions, à la fragmentation de l'habitat ou aux changements climatiques. Ce travail a permis une meilleure compréhension des mécanismes responsables de la coexistence et des caractéristiques des espèces, ce qui est crucial afin de prédire le devenir des communautés naturelles dans un environnement changeant.AbstractUnderstanding how so many different species can coexist in nature is a fundamental and long-standing question in ecology. Community diversity and composition are known to be influenced by heterogeneity in environmental conditions and disturbance. Though in nature the spatial distribution of environmental conditions is frequently autocorrelated, this aspect is seldom considered in models investigating species coexistence. In this work, we thus addressed several questions pertaining to species coexistence and composition in spatially autocorrelated environments, with a numerical simulations approach.To take into account this spatial aspect, we developed a spatially explicit model of metacommunity (a set of communities linked by dispersal of species). In this model, species are trophically equivalent, and compete for space in a heterogeneous environment. Species are characterized by six life-history traits: niche optimum, niche breadth, dispersal, competitiveness, reproductive investment and survival rate. We were particularly interested in the influence of environmental spatial autocorrelation and disturbance on species diversity and on the traits of the species favoured in the metacommunity. We showed that spatial autocorrelation can have antagonistic effects on diversity depending on disturbance rate. Similarly, spatial autocorrelation interacted with disturbance rate and survival rate to shape the mean dispersal ability observed in the metacommunity. Our results also revealed that many species with various degrees of specialization (i.e. different niche breadths) can coexist together. However specialist species were favoured in the absence of disturbance, and when dispersal was unlimited. In contrast, high disturbance rate selected for more generalist species, associated with low competitive ability.The spatial structure of the environment, together with disturbance and species traits, thus strongly impacts species diversity and, more importantly, species composition. Species composition is known to affect several important metacommunity properties such as ecosystem functioning, resistance and reaction to invasion, to habitat fragmentation and to climate changes. This work allowed a better understanding of the mechanisms responsible for species composition, which is of crucial importance to predict the fate of natural metacommunities in changing environments

Relevância:

10.00% 10.00%

Publicador:

Resumo:

THESIS ABSTRACT Garnets are one of the key metamorphic minerals used to study peak metamorphic conditions or crystallization ages. Equilibrium is typically assumed between the garnet and the matrix. This thesis attempts to understand garnet growth in the Zermatt-Saas Fee (ZSF) eclogites, and discusses consequences for Sm/Nd and Lu/Hf dating and the equilibrium assumption. All studied garnets from the ZSF eclogites are strongly zoned in Mn, Fe, Mg, and Ca. Methods based on chemical zoning patterns and on 3D spatial statistics indicate different growth mechanisms depending on the sample studied. Garnets from the Pfulwe area are grown in a system where surface kinetics likely dominated over intergranular diffusion kinetics. Garnets fram two other localities, Nuarsax and Lago di Cignana, seem to have grown in a system where intergranular diffusion kinetics were dominating over surface kinetics, at least during initial growth. Garnets reveal strong prograde REE+Y zoning. They contain narrow central peaks for Lu + Yb + Tm ± Er and at least one additional small peak towards the rim. The REE Sm + Eu + Gd + Tb ± Dy are depleted in the cores but show one prominent peak close to the rim. It is shown that these patterns cam be explained using a transient matrix diffusion model where REE uptake is limited by diffusion in the matrix surrounding the porphyroblast. The secondary peaks in the garnet profiles are interpreted to reflect thermally activated diffusion due to a temperature increase during prograde metamorphism. The model predicts anomalously low 176Lu/177Hf and 147Sm/144Nd ratios in garnets where growth rates are fast compared to diffusion of the REE, which decreases garnet isochron precisions. The sharp Lu zoning was further used to constrain maximum Lu volume diffusion rates in garnet. The modeled minimum pre-exponential diffusion coefficient which fits the measured central peak is in the order of Do = 5.7* 106 m2/s, taking an activation energy of 270 kJ/mol. The latter was chosen in agreement with experimentally determined values. This can be used to estimate a minimum closure temperature of around 630°C for the ZSF zone. Zoning of REE was combined with published Lu/Hf and Sm/Nd age information to redefine the prograde crystallization interval for Lago di Cignana UHP eclogites. Modeling revealed that a prograde growth interval in the order of 25 m.y. is needed to produce the measured spread in ages. RÉSUMÉ Le grenat est un minéral métamorphique clé pour déterminer les conditions du pic de métamorphisme ainsi que l'âge de cristallisation. L'équilibre entre le grenat et la matrice est requis. Cette étude a pour but de comprendre la croissance du grenat dans les éclogites de la zone de Zermatt-Saas Fee (ZSF) et d'examiner quelques conséquences sur les datations Sm/Nd et Lu/Hf. Tous les grenats des éclogites de ZSF étudiés sont fortement zonés en Mn, Fe, Mg et partiellement en Ca. Les différentes méthodes basées sur le modèle de zonation chimique ainsi que sur les statistiques de répartition spatiale en 3D indiquent un mécanisme de croissance différent en fonction de la localité d'échantillonnage. Les grenats provenant de la zone de Pfulwe ont probablement crû dans un système principalement dominé par la cinétique de surface au détriment de 1a cinétique de diffusion intergranulaire. Les grenats provenant de deux autres localités, Nuarsax et Lago di Cignana, semblent avoir cristallisé dans un système dominé par la diffusion intergranulaire, au moins durant les premiers stades de croissance. Les grenats montrent une forte zonation prograde en Terres Rares (REE) ainsi qu'en Y. Les profils présentent au coeur un pic étroit en Lu + Yb+ Tm ± Er et au moins un petit pic supplémentaire vers le bord. Les coeurs des grenats sont appauvris en Sm + Eu + Gd + Tb ± Dy, mais les bords sont marqués par un pic important de ces REE. Ces profils s'expliquent par un modèle de diffusion matricielle dans lequel l'apport en REE est limité par la diffusion dans la matrice environnant les porphyroblastes. Les pics secondaires en bordure de grain reflètent la diffusion activée par l'augmentation de la température lors du métamorphisme prograde. Ce modèle prédit des rapports 176Lu/177Hf et 147Sm/144Nd anormalement bas lorsque les taux de croissance sont plus rapides que la diffusion des REE, ce qui diminue la précision des isochrones impliquant le grenat. La zonation nette en Lu a permis de contraindre le maximum de diffusion volumique par une approche numérique. Le coefficient de diffusion minimum modélisé en adéquation avec les pics mesurés est de l'ordre de Do = 5.7*10-6 m2/s, en prenant une énergie d'activation ~270 kJ/mol déterminée expérimentalement. Ainsi, la température de clôture minimale est estimée aux alentours de 630°C pour la zone ZSF. Des nouvelles données de zonation de REE sont combinées aux âges obtenus avec les rapports Lu/Hf et Sm/Nd qui redéfissent l'intervalle de cristallisation prograde pour les éclogites UHP de Lago di Cignana. La modélisation permet d'attribuer au minimum un intervalle de croissance prograde de 25 Ma afin d'obtenir les âges préalablement mesurés. RESUME GRAND PUBLIC L'un des principaux buts du pétrologue .métamorphique est d'extraire des roches les informations sur l'évolution temporelle, thermique et barométrique qu'elles ont subi au cours de la formation d'une chaîne de montagne. Le grenat est l'un des minéraux clés dans une grande variété de roches métamorphiques. Il a fait l'objet de nombreuses études dans des terrains d'origines variées ou lors d'études expérimentales afin de comprendre ses domaines de stabilité, ses réactions et sa coexistence avec d'autres minéraux. Cela fait du grenat l'un des minéraux les plus attractifs pour la datation des roches. Cependant, lorsqu'on l'utilise pour la datation et/ou pour la géothermobarométrie, on suppose toujours que le grenat croît en équilibre avec les phases coexistantes de la matrice. Pourtant, la croissance d'un minéral est en général liée au processus de déséquilibre. Cette étude a pour but de comprendre comment croît le grenat dans les éclogites de Zermatt - Saas Fee et donc d'évaluer le degré de déséquilibre. Il s'agit aussi d'expliquer les différences d'âges obtenues grâce aux grenats dans les différentes localités de l'unité de Zermatt-Saas Fee. La principale question posée lors de l'étude des mécanismes de croissance du grenat est: Parmi les processus en jeu lors de la croissance du grenat (dissolution des anciens minéraux, transport des éléments vers le nouveau grenat, précipitation d'une nouvelle couche en surface du minéral), lequel est le plus lent et ainsi détermine le degré de déséquilibre? En effet, les grenats d'une des localités (Pfulwe) indiquent que le phénomène d'adhérence en surface est le plus lent, contrairement aux grenats des autres localités (Lago di Cignana, Nuarsax) dans lesquels ce sont les processus de transport qui sont les plus lents. Cela montre que les processus dominants sont variables, même dans des roches similaires de la même unité tectonique. Ceci implique que les processus doivent être déterminés individuellement pour chaque roche afin d'évaluer le degré de déséquilibre du grenat dans la roche. Tous les grenats analysés présentent au coeur une forte concentration de Terres Rares: Lu + Yb + Tm ± Er qui décroît vers le bord du grain. Inversement, les Terres Rares Sm + Eu + Gd + Tb ± Dy sont appauvries au coeur et se concentrent en bordure du grain. La modélisation révèle que ces profils sont-dus à des cinétiques lentes de transport des Terres Rares. De plus, les modèles prédisent des concentrations basses en éléments radiogéniques pères dans certaines roches, ce qui influence fortement sur la précision des âges obtenus par la méthode d'isochrone. Ceci signifie que les roches les plus adaptées pour les datations ne doivent contenir ni beaucoup de grenat ni de très gros cristaux, car dans ce cas, la compétition des éléments entre les cristaux limite à de faibles concentrations la quantité d'éléments pères dans chaque cristal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

1 Abstract Sleep is a vital necessity, yet its basic physiological function is still unknown, despite numerous studies both in healthy humans and animal models. The study of patients with sleep disorders may help uncover major biological pathways in sleep regulation and thus shed light on the actual function of sleep. Narcolepsy is a well defined but rare sleep disorder characterized by excessive daytime sleepiness and cataplexy, thought to be caused by a combination of genetic and environmental factors. The aim of this work was to identify genes or genetic variants, which contribute to the pathogenesis of sporadic and familial narcolepsy. Sporadic narcolepsy is the disorder with the strongest human leukocyte antigen (HLA) association ever reported. Since the associated HLA-DRB1 *1501-DQB1 *0602 haplotype is common in the general population (15-25%), it has been suggested that it is necessary but not sufficient for developing narcolepsy. To further define the genetic basis of narcolepsy risk, we performed a genome-wide association study (GWAS) in 562 European individuals with narcolepsy (cases) and 702 ethnically matched controls, with independent replication in 370 cases and 495 controls, all heterozygous for DRB1*1501-DQB1*0602. We found association with a protective variant near HLA-DQA2. Further analysis revealed that the identified SNP is strongly linked to DRB1*03-DQB1*02 and DRBΠ 301-DQB1*0603. Cases almost never carried a trans DRB1*1301-DQB1*0603 haplotype. This unexpected protective HLA haplotype suggests a causal involvement of the HLA region in narcolepsy susceptibility. Familial cases of narcolepsy account for 10% of all narcolepsy cases. However, due to low number of affected family members, narcolepsy families are usually not eligible for genetic linkage studies. We identified and characterized a large Spanish family with 11 affected family members representing the largest ever reported narcolepsy family. We ran a genetic linkage analysis using DNA of 11 affected and 15 unaffected family members and hereby identified a chromosomal candidate region on chromosome 6 encompassing 163 kb with a maximum multipoint LOD score of 5.02. The coding sequences of 4 genes within this haplotype block as well as 2 neighboring genes were screened for pathogenetic mutations in 2 affected and 1 healthy family members. So far no pathogenic mutation could be identified. Further in-depth sequencing of our candidate region as well as whole genome exome sequencing are underway to identify the pathogenic mutation(s) in this family and will further improve our understanding of the genetic basis of narcolepsy. 2 Résumé Le sommeil est un processus vital, dont la fonction physiologique est encore inconnue, malgré de nombreuses études chez des sujets humains sains ainsi que dans des modèles animaux. L'étude de patients souffrant de troubles du sommeil peut permettre la découverte de voies biologiques jouant un rôle majeur dans la régulation du sommeil. L'un de ces troubles, la narcolepsie, est une maladie rare mais néanmoins bien définie, caractérisée par une somnolence diurne excessive accompagnée de cataplexies. Les connaissances actuelles suggèrent qu'une combinaison de facteurs génétiques et environnementaux en est à l'origine. Le but du présent travail était d'identifier !e(s) gène(s) ou les polymorphismes constituant des facteurs de risque dans les formes sporadique et familiale de narcolepsie. La narcolepsie sporadique est la maladie possédant la plus forte association avec le complexe majeur d'histocompatibilité humain (HLA) jamais reportée. La fréquence au sein de la population générale de l'haplotype associé HLA-DRB1*1501- DQB1*0602 (15-25%) suggère que ce dernier est nécessaire, mais pas suffisant, pour (e développement de la maladie. Nous avons voulu approfondir la recherche de facteurs génétiques augmentant le risque de la narcolepsie. A cette fin, nous avons entrepris une étude d'association à l'échelle du génome (genome-wide association study, GWAS) parmi 562 sujets narcoleptiques européens (cas) et 702 individus contrôle de même origine ethnique et nous avons trouvé une association avec un variant protecteur près du gène HLA- DQA2. Ce résultat a été répliqué indépendamment dans 370 cas et 495 contrôles, tous hétérozygotes au locus DRB1*1501-DQB1*0602. Une analyse plus fine montre que le polymorphisme identifié est fortement lié aux allèles DRB1*03-DQB1*02 et DRB1*1301-DQB1*0603. Nous notons que seul un cas était porteur d'un haplotype en trans DRB1*1301-DQBr0603. La découverte de cet allele HLA protecteur suggère que la région HLA joue un rôle causal dans la susceptibilité à la narcolepsie. Dix pourcents des cas de narcolepsie sont familiaux. Cependant, le faible nombre de membres affectés rend ces familles inéligibles pour des études de liaison génétique. Nous avons identifié et caractérisé une grande famille espagnole, dont 11 membres sont atteints par la maladie, ce qui représente la plus grande famille narcoleptique rapportée jusqu'à ce jour. A partir de l'ADN de 11 membres atteints et 15 non- atteints, nous avons identifié par étude de liaison une région candidate de 163 kîlobases (kb) sur le chromosome 6, correspondant à un LOD score multipoints de 5.02. Nous avons cherché, sans succès, des mutations pathogéniques dans la séquence codante de deux gènes situés à l'intérieur de ce segment, ainsi que 4 gènes adjacents. Un séquençage plus approfondi de la région ainsi que le séquençage des exons de tout le génome est en cours et doit s'avérer plus fructueux et révéler la ou tes mutation(s) pathogénique(s) dans cette famille, ce qui contribuerait à une meilleure compréhension des causes génétiques de la narcolepsie. 3 Résumé pour un large public Le sommeil est une nécessité vitale, dont le rôle physiologique exact reste inconnu malgré de nombreuses études sur des sujets humains sains ainsi que sur des modèles animaux. C'est pourquoi les troubles du sommeil intéressent les chercheurs, car l'élucidation des mécanismes responsables peut permettre de mieux comprendre le fonctionnement du sommeil normal. La narcolepsie est une maladie du sommeil caractérisée par une somnolence diurne excessive. Les personnes atteintes peuvent s'endormir involontairement à tout moment de la journée, et souffrent également de pertes du tonus musculaire (cataplexie) lors de fortes émotions, par exemple un fou rire. La narcolepsie est une maladie rare, apparaissant dans 1 personne sur 2000. Les connaissances actuelles suggèrent qu'une combinaison de facteurs génétiques et environnementaux en est à l'origine. Nous avons voulu identifier les facteurs génétiques influençant le déclenchement de la maladie, d'abord dans sa forme sporadique, puis dans une famille comptant de nombreux membres atteints. En comparant les variations génétiques de près de 1000 sujets narcoleptiques européens avec ceux de 1200 individus sains, nous avons trouvé chez 30% de ces derniers un variant protecteur, qui diminue de 50 fois le risque de développer la maladie, ce qui constitue le plus puissant facteur génétique protecteur décrit à ce jour. Nous avons ensuite étudié une grande famille espagnole comptant une trentaine de membres, dont 11 sont atteints de narcolepsie. De nouveau, nous avons comparé les variations génétiques des membres atteints avec ceux des membres sains. Nous avons ainsi pu identifier une région dans le génome où se trouverait le(s) gène(s) impliqué(s) dans la maladie dans cette famille, mais n'avons pas encore trouvé le(s) variant(s) exact(s). Une étude plus approfondie devrait permettre de P(les) identifier et ainsi contribuer à l'élucidation des mécanismes menant au développement de la narcolepsie.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contrairement à l'opinion formulée dans la littérature, les motets de Victoria sont majoritairement homophoniques. Cette prééminence se manifeste notamment dans le premier livre de motets du compositeur (Venise, 1572), qui comporte plus de la moitié des pièces qu'il a laissées dans le genre. Dans cette publication, 58% de l'ensemble des sections qui composent les motets sont homophoniques. En outre, plus le nombre de voix des pièces est élevé (5, 6 et 8 voix, par opposition aux motets à 4 voix), plus l'homophonie est utilisée. Cependant, les débuts des motets sont majoritairement imitatifs. Deux types de sections homophoniques jouent un rôle de poids. Le premier fait intervenir des sous-sections basées sur le même sujet dans une combinatoire répétition/variation. Dans les motets à 6, une opposition de registre aigu/grave renforce le procédé. Le second type voit se succéder des sous-sections nouvelles qui reposent sur des unités textuelles non répétées. Les sections homophoniques déploient une grande variété d'écriture, qui va de l'extrême « simplicité » à une complexité marquée. L'immédiate succession de sections bien différenciées constitue un marqueur formel fort. L'écriture, quel que soit le degré de complexité, repose régulièrement sur des modèles de progression intervallique. Si l'homophonie est prépondérante, son utilisation conjointe avec l'imitation reste primordiale dans la conception du motet qu'a le compositeur. Ces deux facteurs participent de la « modernité » des pièces. Ils répondent aux préoccupations humanistes des érudits de la musique, à qui le recueil est destiné et appartiennent de ce fait à la musica reservata.