402 resultados para Ergodic limiter
Resumo:
L'utilisation efficace des systèmes géothermaux, la séquestration du CO2 pour limiter le changement climatique et la prévention de l'intrusion d'eau salée dans les aquifères costaux ne sont que quelques exemples qui démontrent notre besoin en technologies nouvelles pour suivre l'évolution des processus souterrains à partir de la surface. Un défi majeur est d'assurer la caractérisation et l'optimisation des performances de ces technologies à différentes échelles spatiales et temporelles. Les méthodes électromagnétiques (EM) d'ondes planes sont sensibles à la conductivité électrique du sous-sol et, par conséquent, à la conductivité électrique des fluides saturant la roche, à la présence de fractures connectées, à la température et aux matériaux géologiques. Ces méthodes sont régies par des équations valides sur de larges gammes de fréquences, permettant détudier de manières analogues des processus allant de quelques mètres sous la surface jusqu'à plusieurs kilomètres de profondeur. Néanmoins, ces méthodes sont soumises à une perte de résolution avec la profondeur à cause des propriétés diffusives du champ électromagnétique. Pour cette raison, l'estimation des modèles du sous-sol par ces méthodes doit prendre en compte des informations a priori afin de contraindre les modèles autant que possible et de permettre la quantification des incertitudes de ces modèles de façon appropriée. Dans la présente thèse, je développe des approches permettant la caractérisation statique et dynamique du sous-sol à l'aide d'ondes EM planes. Dans une première partie, je présente une approche déterministe permettant de réaliser des inversions répétées dans le temps (time-lapse) de données d'ondes EM planes en deux dimensions. Cette stratégie est basée sur l'incorporation dans l'algorithme d'informations a priori en fonction des changements du modèle de conductivité électrique attendus. Ceci est réalisé en intégrant une régularisation stochastique et des contraintes flexibles par rapport à la gamme des changements attendus en utilisant les multiplicateurs de Lagrange. J'utilise des normes différentes de la norme l2 pour contraindre la structure du modèle et obtenir des transitions abruptes entre les régions du model qui subissent des changements dans le temps et celles qui n'en subissent pas. Aussi, j'incorpore une stratégie afin d'éliminer les erreurs systématiques de données time-lapse. Ce travail a mis en évidence l'amélioration de la caractérisation des changements temporels par rapport aux approches classiques qui réalisent des inversions indépendantes à chaque pas de temps et comparent les modèles. Dans la seconde partie de cette thèse, j'adopte un formalisme bayésien et je teste la possibilité de quantifier les incertitudes sur les paramètres du modèle dans l'inversion d'ondes EM planes. Pour ce faire, je présente une stratégie d'inversion probabiliste basée sur des pixels à deux dimensions pour des inversions de données d'ondes EM planes et de tomographies de résistivité électrique (ERT) séparées et jointes. Je compare les incertitudes des paramètres du modèle en considérant différents types d'information a priori sur la structure du modèle et différentes fonctions de vraisemblance pour décrire les erreurs sur les données. Les résultats indiquent que la régularisation du modèle est nécessaire lorsqu'on a à faire à un large nombre de paramètres car cela permet d'accélérer la convergence des chaînes et d'obtenir des modèles plus réalistes. Cependent, ces contraintes mènent à des incertitudes d'estimations plus faibles, ce qui implique des distributions a posteriori qui ne contiennent pas le vrai modèledans les régions ou` la méthode présente une sensibilité limitée. Cette situation peut être améliorée en combinant des méthodes d'ondes EM planes avec d'autres méthodes complémentaires telles que l'ERT. De plus, je montre que le poids de régularisation des paramètres et l'écart-type des erreurs sur les données peuvent être retrouvés par une inversion probabiliste. Finalement, j'évalue la possibilité de caractériser une distribution tridimensionnelle d'un panache de traceur salin injecté dans le sous-sol en réalisant une inversion probabiliste time-lapse tridimensionnelle d'ondes EM planes. Etant donné que les inversions probabilistes sont très coûteuses en temps de calcul lorsque l'espace des paramètres présente une grande dimension, je propose une stratégie de réduction du modèle ou` les coefficients de décomposition des moments de Legendre du panache de traceur injecté ainsi que sa position sont estimés. Pour ce faire, un modèle de résistivité de base est nécessaire. Il peut être obtenu avant l'expérience time-lapse. Un test synthétique montre que la méthodologie marche bien quand le modèle de résistivité de base est caractérisé correctement. Cette méthodologie est aussi appliquée à un test de trac¸age par injection d'une solution saline et d'acides réalisé dans un système géothermal en Australie, puis comparée à une inversion time-lapse tridimensionnelle réalisée selon une approche déterministe. L'inversion probabiliste permet de mieux contraindre le panache du traceur salin gr^ace à la grande quantité d'informations a priori incluse dans l'algorithme. Néanmoins, les changements de conductivités nécessaires pour expliquer les changements observés dans les données sont plus grands que ce qu'expliquent notre connaissance actuelle des phénomenès physiques. Ce problème peut être lié à la qualité limitée du modèle de résistivité de base utilisé, indiquant ainsi que des efforts plus grands devront être fournis dans le futur pour obtenir des modèles de base de bonne qualité avant de réaliser des expériences dynamiques. Les études décrites dans cette thèse montrent que les méthodes d'ondes EM planes sont très utiles pour caractériser et suivre les variations temporelles du sous-sol sur de larges échelles. Les présentes approches améliorent l'évaluation des modèles obtenus, autant en termes d'incorporation d'informations a priori, qu'en termes de quantification d'incertitudes a posteriori. De plus, les stratégies développées peuvent être appliquées à d'autres méthodes géophysiques, et offrent une grande flexibilité pour l'incorporation d'informations additionnelles lorsqu'elles sont disponibles. -- The efficient use of geothermal systems, the sequestration of CO2 to mitigate climate change, and the prevention of seawater intrusion in coastal aquifers are only some examples that demonstrate the need for novel technologies to monitor subsurface processes from the surface. A main challenge is to assure optimal performance of such technologies at different temporal and spatial scales. Plane-wave electromagnetic (EM) methods are sensitive to subsurface electrical conductivity and consequently to fluid conductivity, fracture connectivity, temperature, and rock mineralogy. These methods have governing equations that are the same over a large range of frequencies, thus allowing to study in an analogous manner processes on scales ranging from few meters close to the surface down to several hundreds of kilometers depth. Unfortunately, they suffer from a significant resolution loss with depth due to the diffusive nature of the electromagnetic fields. Therefore, estimations of subsurface models that use these methods should incorporate a priori information to better constrain the models, and provide appropriate measures of model uncertainty. During my thesis, I have developed approaches to improve the static and dynamic characterization of the subsurface with plane-wave EM methods. In the first part of this thesis, I present a two-dimensional deterministic approach to perform time-lapse inversion of plane-wave EM data. The strategy is based on the incorporation of prior information into the inversion algorithm regarding the expected temporal changes in electrical conductivity. This is done by incorporating a flexible stochastic regularization and constraints regarding the expected ranges of the changes by using Lagrange multipliers. I use non-l2 norms to penalize the model update in order to obtain sharp transitions between regions that experience temporal changes and regions that do not. I also incorporate a time-lapse differencing strategy to remove systematic errors in the time-lapse inversion. This work presents improvements in the characterization of temporal changes with respect to the classical approach of performing separate inversions and computing differences between the models. In the second part of this thesis, I adopt a Bayesian framework and use Markov chain Monte Carlo (MCMC) simulations to quantify model parameter uncertainty in plane-wave EM inversion. For this purpose, I present a two-dimensional pixel-based probabilistic inversion strategy for separate and joint inversions of plane-wave EM and electrical resistivity tomography (ERT) data. I compare the uncertainties of the model parameters when considering different types of prior information on the model structure and different likelihood functions to describe the data errors. The results indicate that model regularization is necessary when dealing with a large number of model parameters because it helps to accelerate the convergence of the chains and leads to more realistic models. These constraints also lead to smaller uncertainty estimates, which imply posterior distributions that do not include the true underlying model in regions where the method has limited sensitivity. This situation can be improved by combining planewave EM methods with complimentary geophysical methods such as ERT. In addition, I show that an appropriate regularization weight and the standard deviation of the data errors can be retrieved by the MCMC inversion. Finally, I evaluate the possibility of characterizing the three-dimensional distribution of an injected water plume by performing three-dimensional time-lapse MCMC inversion of planewave EM data. Since MCMC inversion involves a significant computational burden in high parameter dimensions, I propose a model reduction strategy where the coefficients of a Legendre moment decomposition of the injected water plume and its location are estimated. For this purpose, a base resistivity model is needed which is obtained prior to the time-lapse experiment. A synthetic test shows that the methodology works well when the base resistivity model is correctly characterized. The methodology is also applied to an injection experiment performed in a geothermal system in Australia, and compared to a three-dimensional time-lapse inversion performed within a deterministic framework. The MCMC inversion better constrains the water plumes due to the larger amount of prior information that is included in the algorithm. The conductivity changes needed to explain the time-lapse data are much larger than what is physically possible based on present day understandings. This issue may be related to the base resistivity model used, therefore indicating that more efforts should be given to obtain high-quality base models prior to dynamic experiments. The studies described herein give clear evidence that plane-wave EM methods are useful to characterize and monitor the subsurface at a wide range of scales. The presented approaches contribute to an improved appraisal of the obtained models, both in terms of the incorporation of prior information in the algorithms and the posterior uncertainty quantification. In addition, the developed strategies can be applied to other geophysical methods, and offer great flexibility to incorporate additional information when available.
Resumo:
Evaluer l'efficacité d'une thérapie ne devrait pas se limiter à en étudier l'impact sur différentes dimensions pertinentes. En effet, la recherche en psychothérapie insiste sur l'importance de développer des manuels thérapeutiques, afin de décrire ce que les thérapeutes font et donc comprendre ce qui est efficace, ainsi que des protocoles d'adhérence à ces manuels, afin de pouvoir évaluer si les intervenants font effectivement ce qu'ils prétendent faire. Cet article présente le manuel thérapeutique de l'Intervention systémique brève (ISB), un modèle d'intervention en six séances, utilisé dans une consultation pour couples et familles au Département de psychiatrie du CHUV à Lausanne. Ce modèle fait l'objet d'une recherche visant à évaluer son efficacité à court et moyen termes, au moyen de questionnaires remplis par les patients, évaluant différents niveaux : 1) les symptômes individuels, 2) la satisfaction conjugale, 3) la qualité des relations parentales, 4) la qualité des relations coparentales et 5) les relations familiales. L'ISB est un modèle intégratif des principales écoles de thérapie familiale systémique. Pour élaborer le manuel de l'ISB, nous nous sommes basés sur certains principes généraux communs aux différentes approches systémiques. La difficulté d'élaborer un tel manuel thérapeutique intégratif systémique sera discutée.
Resumo:
Introduction La dystrophie musculaire de Duchenne (DMD) est une myopathie progressive liée au chromosome X qui atteint environ un garçon sur 3500. Des troubles du sommeil (TDS) sont fréquemment rapportés par ces patients Les études effectuées à ce jour se sont essentiellement concentrées sur les troubles respiratoires liés au sommeil. Les TDS débutent toutefois fréquemment avant l'installation d'un trouble ventilatoire nocturne et de nombreux autres facteurs peuvent en être la cause. Objectif L'objectif de cette étude est d'évaluer la fréquence des TDS chez les garçons avec une DMD et d'en identifier les facteurs de risque. Méthode II s'agit d'une étude transversale effectuée par questionnaire postal adressé aux parents de tout garçon âgé de 4-18 ans avec une DMD, suivi dans deux centres tertiaires de réhabilitation pédiatrique (Lausanne et Dublin). Les TDS sont évalués à l'aide de la 'Sleep Disturbance Scale for Children' (SDSC), validée sur 1157 enfants sains. Elle permet d'obtenir un score total et des scores pour six facteurs représentant les TDS les plus fréquents (troubles de l'endormissement et du maintien du sommeil (TEMS), éveil nocturne-cauchemars, transition veille-sommeil, somnolence diurne excessive, troubles respiratoires associés au sommeil (TRS), hyperhidrose du sommeil). Un T- score supérieur à 70 (>2DS) est considéré comme pathologique. Les associations potentielles entre des scores pathologiques et des facteurs individuels (âge, mobilité diurne et nocturne, douleur), thérapeutiques (orthèses nocturnes, ventilation non-invasive, médication) et environnementaux (facteurs socio-familiaux) sont évaluées à l'aide d'analyses univariées (χ2) et de régressions logistiques ascendantes. Résultats Seize garçons sur 63, soit 25.4%, présentent un score total pathologique en comparaison au 3% attendus dans la population générale. Les TEMS (29.7%), les TRS (15.6%) et l'hyperhidrose du sommeil (14.3%) sont les TDS les plus prévalent. Le besoin d'être mobilisé la nuit par un tiers (OR=9.4; 95%CI: 2.2-40.7; p=0.003) et être l'enfant d'une famille monoparentale (OR=7.2; 95%CI: 1.5-35.1; p=0.015) sont des facteurs de risque indépendants pour un score total pathologique. Le besoin d'être mobilisé la nuit par un tiers (OR=18.0; 95%CI: 2.9¬110.6; p=0.002), le traitement par corticostéroïdes (OR=7.7; 95%CI: 1.4-44.0; p-0.021) et être l'enfant d'une famille monoparentale (OR=7.0; 95%CI: 1.3-38.4; p=0.025) sont des facteurs de risque indépendants pour un TEMS. Discussion Cette étude montre une prévalence élevée des TDS chez les garçons avec une DMD (25% contre 3% attendus dans la population générale). Le besoin d'être mobilisé la nuit par un tiers est identifié comme un facteur de risque important pour un score total pathologique et un TEMS. Il reflète vraisemblablement un degré d'atteinte motrice tel qu'il limite les mouvements spontanés et les adaptations posturales du sommeil, ayant pour conséquence une diminution importante de la qualité du sommeil. Les enfants vivant dans un foyer monoparental présentent plus fréquemment un score total pathologique et des TEMS, possiblement en lien avec un stress psychologique plus important dans ces familles. Le traitement par corticostéroïdes est identifié comme facteur de risque pour un TEMS. Une adaptation du schéma ou du dosage permet généralement de limiter cet effet secondaire. Si nécessaire, un traitement par Mélatonine peut être instauré. Aucune association n'a pu être mise en évidence entre les facteurs analysés et les TRS, possiblement en raison du petit nombre de garçons ayant rapporté de tels symptômes et du fait que certains symptômes d'hypoventilation nocturne ne sont pas évalués par la SDSC. Par ailleurs, la valeur prédictive de l'anamnèse, comme celle des fonctions pulmonaires diurnes, est connue pour être limitée, raison pour laquelle une oxy-capnométrie est effectuée de routine en dessous d'une capacité vitale forcée de 50%. Elle permet, si nécessaire, l'instauration précoce d'une ventilation non-invasive, limitant ainsi vraisemblablement l'impact de ('hypoventilation nocturne sur la qualité du sommeil dans notre population. Plusieurs limitations sont à évoquer. Le petit nombre de patients ne permet pas d'exclure d'autres associations potentielles. La nature transversale de l'étude augmente le risque de causalité inverse. Cette étude n'inclut pas de mesure quantitative du sommeil. Les questionnaires adressés aux parents ont toutefois pu être démontrés comme fiables hormis pour les TRS. Un biais de non-réponse ne peut pas être totalement exclu, bien que le taux de réponse soit élevé (86,5%) et qu'il n'y ait pas de différence significative entre les populations de répondeurs et non-répondeurs. Conclusion La prévalence des TDS est élevée chez les garçons avec une DMD et leurs causes sont multiples. Les facteurs de risques sont physiques (immobilité nocturne), pharmacologiques (corticothérapie) et environnementaux (famille monoparentale). Compte tenu de son impact sur la qualité de vie, l'évaluation du sommeil doit être systématique en consultation et ne pas se limiter aux seuls troubles ventilatoires nocturnes.
Resumo:
Introduction Le cadre conceptuel de l'analyse économique considère que l'individu prend des décisions en mettant en balance les avantages et les inconvénients que ces décisions présentent pour lui. En s'appuyant sur ses préférences et en intégrant ses contraintes (matérielles, physiques, externes, etc.), il choisit d'effectuer ou non une action, d'adopter ou pas un comportement, de façon à ce que les conséquences de ses choix maximisent sa satisfaction. Le fait qu'un individu adopte un certain comportement révèle donc le caractère positif pour lui des conséquences de ce comportement. C'est le postulat méthodologique de rationalité du consommateur, fondement de toute analyse économique. L'adoption par un individu d'un comportement qui implique un risque pour son bien-être physique ou mental suit le même schéma d'analyse. Il résulte d'un arbitrage inter temporel entre la satisfaction que procure ce comportement et le coût du risque associé. Ce risque se définit par la combinaison de la probabilité d'occurrence de l'événement redouté avec la gravité de ses conséquences. En adoptant un comportement à risque, l'individu révèle donc que ce comportement a pour lui un impact net positif. Certains comportements à risque, comme la consommation de tabac et, plus largement, de psychotropes, engendrent une dépendance à même de brider le libre-arbitre du consommateur. Un individu peut être amené à consommer un produit alors même que sa raison lui dicte de ne pas le faire. Ces comportements ont longtemps été considérés par les économistes comme extérieurs au champ d'analyse de leur discipline, la dépendance paraissant antinomique avec le concept de rationalité du consommateur. Par son modèle de dépendance rationnelle, Gary Stanley Becker prend le contre-pied de cette approche en montrant qu'un comportement de dépendance pouvait parfaitement s'expliquer par la maximisation de la fonction de satisfaction d'un individu rationnel et informé. Il postule que les consommateurs de stupéfiants sont conscients des conséquences futures de leurs décisions présentes, tant du point de vue de leur santé que de celui de la dépendance. Dans ce modèle, la dépendance implique deux effets le renforcement et la tolérance. Le renforcement signifie que plus un bien a été consommé dans le passé, plus l'augmentation de sa consommation courante est valorisée. En d'autres termes, l'utilité marginale de la consommation courante augmente avec la consommation antérieure. La tolérance traduit le fait qu'un individu habitué à la consommation d'un bien tirera d'une consommation donnée une satisfaction inférieure par rapport à un individu qui a peu consommé par le passé. Dans l'exemple du tabagisme, l'effet de renforcement implique qu'un grand fumeur ressent une forte envie de fumer, mais que plus il a fumé dans le passé, plus le plaisir qu'il ressent en fumant une quantité donnée de cigarettes diminue. Le premier effet explique le phénomène de manque et le second explique pourquoi la satisfaction qu'un fumeur retire de sa consommation de cigarettes tend à diminuer avec le temps. Selon Becker, l'individu choisit de devenir dépendant : il sait que sa consommation présente de cigarettes contraint ses choix futurs et il détermine au départ sa consommation sur l'ensemble de sa vie. Cependant, ce modèle n'est pas compatible avec les regrets exprimés par de nombreux fumeurs et les tentatives infructueuses de sevrage souvent concomitantes. Un fumeur qui anticiperait parfaitement le phénomène de dépendance arrêterait de fumer à la date voulue, à sa première tentative. Partant de ce constat, Athanasios Orphanides a construit un modèle dans lequel les fumeurs peuvent se retrouver prisonniers de leur consommation par des anticipations imparfaites du pouvoir addictif du tabac. Leur théorie suppose que les individus ne sont pas tous sujets de la même manière à la dépendance, que chacun a une perception subjective de son risque de dépendance et que cette perception évolue constamment durant la période de consommation du bien addictif. Dans ce contexte, un individu qui maximise des préférences stables, mais qui sous-estime le potentiel addictif d'un produit peut devenir dépendant par accident et regretter ensuite cette dépendance. Le modèle de Becker ou celui d'Orphanides ont des conséquences très différentes sur l'action régulatrice que doit ou non jouer l'État sur le marché d'un bien addictif. Si, comme Becker, on considère que les consommateurs sont rationnels et parfaitement informés des conséquences de leurs actes, l'action du régulateur devrait se limiter à l'internalisation du coût externe que les fumeurs font peser sur la société. Si le fumeur est conscient du risque qu'il prend et que pour lui le plaisir qu'il retire de cette consommation dépasse le déplaisir engendré par ses conséquences, une intervention du régulateur reposerait sur une base paternaliste, l'État posant alors un jugement de valeur sur les préférences des individus. En revanche, si on considère, comme dans la modélisation d'Orphanides, que les fumeurs sous-estiment le phénomène de dépendance lorsqu'ils décident de se mettre à fumer, un marché non régulé conduit à une consommation supérieure à celle qui prévaudrait en information parfaite. Certains fumeurs peuvent ainsi se retrouver accrochés à leur consommation de tabac, sans que cela ait été leur but. Dans cette perspective, l'État est légitimé à intervenir par des politiques de lutte contre le tabagisme, afin de compenser les erreurs d'anticipation des individus. Cette thèse propose d'appliquer les outils de l'analyse économique à des problématiques de santé publique dans le domaine des comportements à risque et en particulier du tabagisme. Elle a pour finalité d'apporter de nouveaux éléments de connaissance permettant d'éclairer certains choix de régulation dans ce domaine. Le premier chapitre est une analyse coût-efficacité des thérapies médicamenteuses de soutien à la désaccoutumance tabagique. Comme nous l'avons vu plus haut, certains fumeurs se trouvent piégés dans leur consommation par le phénomène de dépendance et ont des difficultés à arrêter de fumer. Ces dernières années, plusieurs médicaments de soutien au fumeur en phase de sevrage ont fait leur apparition. Parmi eux, on compte des substituts nicotiniques sous forme de gomme, patch, spray ou inhalateur, mais aussi un antidépresseur ne contenant pas de nicotine. Ces traitements présentent des efficacités et des coûts différents. L'évaluation économique en santé permet de calculer un indicateur unique d'efficience qui synthétise l'efficacité d'un traitement et son coût. Cette méthode permet de comparer différents types de prises en charge médicales d'une même pathologie, mais aussi de comparer des interventions thérapeutiques dans des domaines différents. Nous développons un modèle de Markov pour estimer le gain en année de vie d'une stratégie de prévention du tabagisme. Ce modèle permet de simuler le devenir d'une cohorte de fumeurs en fonction du type de soutien à la désaccoutumance qui leur est proposé. Sur cette base, nous calculons le coût par année de vie gagnée de chaque type d'intervention. Les résultats permettent de classer les cinq types de prise en charge selon leur efficience, mais aussi de les comparer à d'autres interventions de prévention dans des domaines différents. Le deuxième chapitre traite des corrélations entre le niveau de formation des individus et leur consommation de tabac. Sur un plan épidémiologique, on constate que les personnes qui atteignent un niveau de formation plus élevé ont une propension à fumer plus faible que les autres. Peut-on en conclure qu'il existe une relation causale inverse entre formation et tabagisme ? Sous l'angle de la théorie économique, il existe deux principales hypothèses à même d'expliquer cette corrélation. La première hypothèse repose sur le modèle de capital santé développé par Michael Grossman au début des années 1970. Dans ce modèle, l'individu dispose d'un stock de santé qui se déprécie avec le temps. Ce stock peut être augmenté grâce à des dépenses en soins médicaux ou à des investissements en temps consacré à l'amélioration de sa santé. La formation a pour effet d'augmenter l'efficacité des investissements en santé. Dans le cas du tabac, Grossman considère que des individus mieux formés auront une meilleurs information sur les méfaits du tabac sur la santé, ce qui tendra à diminuer leur consommation de tabac. La seconde hypothèse ne considère pas un lien causal entre la formation et la santé, mais repose sur l'existence d'une tierce variable qui influencerait parallèlement, et dans un sens opposé, le niveau de formation et la propension à fumer. Cette tierce variable est le taux de préférence pour le présent. Pour un individu fortement tourné vers le présent, l'investissement en temps de formation a un coût relativement élevé dans la mesure où il doit sacrifier du revenu aujourd'hui pour obtenir un revenu plus élevé demain. Parallèlement, il pondère moins fortement la santé future et a donc une plus forte propension à fumer. Nous développons une méthode économétrique qui permet de séparer l'effet de causalité de l'effet de sélection. Le troisième chapitre traite du rôle des interactions sociales dans les comportements à risque des adolescents. La théorie économique considère que chaque individu définit seul ses choix de consommation en maximisant sa fonction d'utilité. Cela ne signifie pas pour autant qu'il soit insensible aux influences extérieures, notamment au comportement de son entourage. Dans certaines situations et pour certains produits, l'utilité que procure la consommation d'un bien est corrélée avec le nombre de personnes qui consomment ce même bien dans l'entourage. En d'autres termes, la consommation des autres, augmente la valeur que l'on attribue à un bien. Ce mécanisme est souvent appliqué à l'analyse des comportements à risque des adolescents et du rôle que peut y jouer le groupe des pairs. Si cet impact est bien connu du point de vue théorique, il est beaucoup plus difficile de le quantifier sur un plan empirique. Pour identifier cet effet, nous développons une méthodologie économétrique, originale dans ce contexte, qui permet de séparer l'effet individuel de l'effet d'influence des pairs dans l'adoption d'un comportement à risque. Nous appliquons cette méthode aux trois comportements à risque que sont la consommation de tabac, d'alcool et de cannabis chez les adolescents.
Resumo:
Les instabilités engendrées par des gradients de densité interviennent dans une variété d'écoulements. Un exemple est celui de la séquestration géologique du dioxyde de carbone en milieux poreux. Ce gaz est injecté à haute pression dans des aquifères salines et profondes. La différence de densité entre la saumure saturée en CO2 dissous et la saumure environnante induit des courants favorables qui le transportent vers les couches géologiques profondes. Les gradients de densité peuvent aussi être la cause du transport indésirable de matières toxiques, ce qui peut éventuellement conduire à la pollution des sols et des eaux. La gamme d'échelles intervenant dans ce type de phénomènes est très large. Elle s'étend de l'échelle poreuse où les phénomènes de croissance des instabilités s'opèrent, jusqu'à l'échelle des aquifères à laquelle interviennent les phénomènes à temps long. Une reproduction fiable de la physique par la simulation numérique demeure donc un défi en raison du caractère multi-échelles aussi bien au niveau spatial et temporel de ces phénomènes. Il requiert donc le développement d'algorithmes performants et l'utilisation d'outils de calculs modernes. En conjugaison avec les méthodes de résolution itératives, les méthodes multi-échelles permettent de résoudre les grands systèmes d'équations algébriques de manière efficace. Ces méthodes ont été introduites comme méthodes d'upscaling et de downscaling pour la simulation d'écoulements en milieux poreux afin de traiter de fortes hétérogénéités du champ de perméabilité. Le principe repose sur l'utilisation parallèle de deux maillages, le premier est choisi en fonction de la résolution du champ de perméabilité (grille fine), alors que le second (grille grossière) est utilisé pour approximer le problème fin à moindre coût. La qualité de la solution multi-échelles peut être améliorée de manière itérative pour empêcher des erreurs trop importantes si le champ de perméabilité est complexe. Les méthodes adaptatives qui restreignent les procédures de mise à jour aux régions à forts gradients permettent de limiter les coûts de calculs additionnels. Dans le cas d'instabilités induites par des gradients de densité, l'échelle des phénomènes varie au cours du temps. En conséquence, des méthodes multi-échelles adaptatives sont requises pour tenir compte de cette dynamique. L'objectif de cette thèse est de développer des algorithmes multi-échelles adaptatifs et efficaces pour la simulation des instabilités induites par des gradients de densité. Pour cela, nous nous basons sur la méthode des volumes finis multi-échelles (MsFV) qui offre l'avantage de résoudre les phénomènes de transport tout en conservant la masse de manière exacte. Dans la première partie, nous pouvons démontrer que les approximations de la méthode MsFV engendrent des phénomènes de digitation non-physiques dont la suppression requiert des opérations de correction itératives. Les coûts de calculs additionnels de ces opérations peuvent toutefois être compensés par des méthodes adaptatives. Nous proposons aussi l'utilisation de la méthode MsFV comme méthode de downscaling: la grille grossière étant utilisée dans les zones où l'écoulement est relativement homogène alors que la grille plus fine est utilisée pour résoudre les forts gradients. Dans la seconde partie, la méthode multi-échelle est étendue à un nombre arbitraire de niveaux. Nous prouvons que la méthode généralisée est performante pour la résolution de grands systèmes d'équations algébriques. Dans la dernière partie, nous focalisons notre étude sur les échelles qui déterminent l'évolution des instabilités engendrées par des gradients de densité. L'identification de la structure locale ainsi que globale de l'écoulement permet de procéder à un upscaling des instabilités à temps long alors que les structures à petite échelle sont conservées lors du déclenchement de l'instabilité. Les résultats présentés dans ce travail permettent d'étendre les connaissances des méthodes MsFV et offrent des formulations multi-échelles efficaces pour la simulation des instabilités engendrées par des gradients de densité. - Density-driven instabilities in porous media are of interest for a wide range of applications, for instance, for geological sequestration of CO2, during which CO2 is injected at high pressure into deep saline aquifers. Due to the density difference between the C02-saturated brine and the surrounding brine, a downward migration of CO2 into deeper regions, where the risk of leakage is reduced, takes place. Similarly, undesired spontaneous mobilization of potentially hazardous substances that might endanger groundwater quality can be triggered by density differences. Over the last years, these effects have been investigated with the help of numerical groundwater models. Major challenges in simulating density-driven instabilities arise from the different scales of interest involved, i.e., the scale at which instabilities are triggered and the aquifer scale over which long-term processes take place. An accurate numerical reproduction is possible, only if the finest scale is captured. For large aquifers, this leads to problems with a large number of unknowns. Advanced numerical methods are required to efficiently solve these problems with today's available computational resources. Beside efficient iterative solvers, multiscale methods are available to solve large numerical systems. Originally, multiscale methods have been developed as upscaling-downscaling techniques to resolve strong permeability contrasts. In this case, two static grids are used: one is chosen with respect to the resolution of the permeability field (fine grid); the other (coarse grid) is used to approximate the fine-scale problem at low computational costs. The quality of the multiscale solution can be iteratively improved to avoid large errors in case of complex permeability structures. Adaptive formulations, which restrict the iterative update to domains with large gradients, enable limiting the additional computational costs of the iterations. In case of density-driven instabilities, additional spatial scales appear which change with time. Flexible adaptive methods are required to account for these emerging dynamic scales. The objective of this work is to develop an adaptive multiscale formulation for the efficient and accurate simulation of density-driven instabilities. We consider the Multiscale Finite-Volume (MsFV) method, which is well suited for simulations including the solution of transport problems as it guarantees a conservative velocity field. In the first part of this thesis, we investigate the applicability of the standard MsFV method to density- driven flow problems. We demonstrate that approximations in MsFV may trigger unphysical fingers and iterative corrections are necessary. Adaptive formulations (e.g., limiting a refined solution to domains with large concentration gradients where fingers form) can be used to balance the extra costs. We also propose to use the MsFV method as downscaling technique: the coarse discretization is used in areas without significant change in the flow field whereas the problem is refined in the zones of interest. This enables accounting for the dynamic change in scales of density-driven instabilities. In the second part of the thesis the MsFV algorithm, which originally employs one coarse level, is extended to an arbitrary number of coarse levels. We prove that this keeps the MsFV method efficient for problems with a large number of unknowns. In the last part of this thesis, we focus on the scales that control the evolution of density fingers. The identification of local and global flow patterns allows a coarse description at late times while conserving fine-scale details during onset stage. Results presented in this work advance the understanding of the Multiscale Finite-Volume method and offer efficient dynamic multiscale formulations to simulate density-driven instabilities. - Les nappes phréatiques caractérisées par des structures poreuses et des fractures très perméables représentent un intérêt particulier pour les hydrogéologues et ingénieurs environnementaux. Dans ces milieux, une large variété d'écoulements peut être observée. Les plus communs sont le transport de contaminants par les eaux souterraines, le transport réactif ou l'écoulement simultané de plusieurs phases non miscibles, comme le pétrole et l'eau. L'échelle qui caractérise ces écoulements est définie par l'interaction de l'hétérogénéité géologique et des processus physiques. Un fluide au repos dans l'espace interstitiel d'un milieu poreux peut être déstabilisé par des gradients de densité. Ils peuvent être induits par des changements locaux de température ou par dissolution d'un composé chimique. Les instabilités engendrées par des gradients de densité revêtent un intérêt particulier puisque qu'elles peuvent éventuellement compromettre la qualité des eaux. Un exemple frappant est la salinisation de l'eau douce dans les nappes phréatiques par pénétration d'eau salée plus dense dans les régions profondes. Dans le cas des écoulements gouvernés par les gradients de densité, les échelles caractéristiques de l'écoulement s'étendent de l'échelle poreuse où les phénomènes de croissance des instabilités s'opèrent, jusqu'à l'échelle des aquifères sur laquelle interviennent les phénomènes à temps long. Etant donné que les investigations in-situ sont pratiquement impossibles, les modèles numériques sont utilisés pour prédire et évaluer les risques liés aux instabilités engendrées par les gradients de densité. Une description correcte de ces phénomènes repose sur la description de toutes les échelles de l'écoulement dont la gamme peut s'étendre sur huit à dix ordres de grandeur dans le cas de grands aquifères. Il en résulte des problèmes numériques de grande taille qui sont très couteux à résoudre. Des schémas numériques sophistiqués sont donc nécessaires pour effectuer des simulations précises d'instabilités hydro-dynamiques à grande échelle. Dans ce travail, nous présentons différentes méthodes numériques qui permettent de simuler efficacement et avec précision les instabilités dues aux gradients de densité. Ces nouvelles méthodes sont basées sur les volumes finis multi-échelles. L'idée est de projeter le problème original à une échelle plus grande où il est moins coûteux à résoudre puis de relever la solution grossière vers l'échelle de départ. Cette technique est particulièrement adaptée pour résoudre des problèmes où une large gamme d'échelle intervient et évolue de manière spatio-temporelle. Ceci permet de réduire les coûts de calculs en limitant la description détaillée du problème aux régions qui contiennent un front de concentration mobile. Les aboutissements sont illustrés par la simulation de phénomènes tels que l'intrusion d'eau salée ou la séquestration de dioxyde de carbone.
Resumo:
RESUMEL'agriculture urbaine et périurbalne - nommée ci-après AU - est un thème fort de recherche transversale, au vu des nombreux enjeux économiques, sociaux et environnementaux. L'objectif de cette recherche était de contribuer à une meilleure connaissance des processus de transfert de polluants et du cycle des nutriments à l'échelle locale, afin de déterminer sous quelles conditions l'AU de Dakar peut être pratiquée sans porter atteinte à la santé et à l'environnement.Une approche basée sur l'étude des processus géochimiques dans ie sol jusqu'à la nappe a été choisie, à l'échelle de la parcelle cultivée et à une échelle un peu plus large de la zone périurbaine de Dakar pour déterminer les influences du type d'occupation du sol.L'évaluation des impacts de l'irrigation avec des eaux usées brutes et des eaux de nappe saumâtres sur la qualité des sols (chapitre 2) a montré que l'alcalinité et les teneurs en calcium élevées des eaux saumâtres induisent la précipitation de CaC03 dans l'horizon superficiel du sol. Na remplace consécutivement Ca sur le complexe argilo-humique du sol et les bicarbonates diminuent dans la solution du sol. Le carbone organique dissout (COD) augmente significativement dans la solution du sol et dans la nappe sous-jacente. Malgré l'alcalinité et les teneurs très élevées en calcium des eaux usées, il y a peu de précipitation de CaC03 dans l'horizon superficiel du sol et une faible augmentation du sodium échangeable ESP. La nitrification de l'ammonium des eaux usées (moy 190mg/L à Pikine) produit des protons, qui ne sont plus tamponnés par les bicarbonates exportés hors du profil. Il y a alors une nette baisse de pH des sols irrigués par des eaux usées non traitées. Les sols irrigués par des eaux usées et saumâtres stockent moins de C et Ν que les sols de référence.L'évaluation de l'influence de l'occupation des sols en zone périurbaine sur à la nappe phréatique peu profonde (chapitre 3) a permis de déterminer les traceurs représentatifs de l'occupation du sol, à savoir Br/CI, NO3/CI et δ180-Ν03 pour l'irrigation par des eaux usées, pH et δ15Ν-Ν03 pour l'irrigation par des eaux de nappe, et Rb+Cr et Κ pour les lixiviats de fosses septiques. Ce chapitre a mis en évidence des points importants de la dynamique de l'azote en zone périurbaine sous deux occupations du sol : (1) la dénitrification est un processus important dans l'agrosystème périurbain de Dakar en bas de dune, dans les gleysols où l'on trouve des conditions temporairement réduites et un substrat organique favorables aux microorganismes de la dénitrification. Les teneurs en nitrates sont presque nulles avec irrigation d'eau de nappe. (2) en bas de pente, mais avec irrigation quotidienne par les eaux usées, l'apport continu d'ammonium inhibe probablement la dénitrification, mais favorise la volatilisation. (3) la nitrification de l'ammonium dans la nappe lors de la lixiviation des fosses septiques se distingue de la nitrification de l'ammonium dans la zone non saturée dans la zone d'agriculture périurbaine par la composition isotopique de l'oxygène de l'eau. Une comparaison des flux d'azote entre l'agrosystème et les quartiers périurbains de Dakar (chapitre 4) ont révélé que ces derniers étaient du même ordre de grandeur par unité de surface, à savoir 2-4 tonnes Ν /ha/an.L'évaluation des flux de pesticides dans l'agrosystème et des risques induits pour les eaux souterraines (chapitre 5) a révélé un fiux total de pesticides de 60kg/ha/an, totalisant 15 matières actives. Seules deux de ces matières actives sont autorisées par le comité des pesticides sahélien. Les pesticides les plus utilisés par les producteurs sont l'organochloré dicofol, les organophosphorés methamidophos, dimethoate et fenithrotion ainsi que le cabamate methomyl. Les flux les plus importants sont de 9 à 7 kg/ha/an (methomyl, methamidophos, ethoprophos et dicofol). Les pesticides qui présentent un risque élevé de contamination des eaux souterraines et qui devraient être prioritaires pour un suivi analytique sont : le carbofuran, le dimethoate, l'ethoprophos et le methomyl.En conclusion, une meilleure gestion de la fertilisation est nécessaire dans la zone d'AU de Dakar, afin de (1) réduire les pertes gazeuses qui contribuent à l'effet de serre, (2) de ralentir la minéralisation du carbone et de l'azote organiques pour créer un stock de C et Ν dans ces sols, (3) de limiter le lessivage dans la nappe et enfin, 4) d'augmenter l'efficacité d'utilisation de Ν par les plantes. Une optimisation de l'irrigation devrait limiter l'alcalinisation secondaire. Enfin, la mise en place d'une lutte intégrée ou biologique contre les ravageurs est indispensable afin de minimiser les risques pour les eaux souterraines et les mares permanentes.ABSTRACTUrban and periurban agriculture (UA) is an important issue in southern countries, because of its key role in their social and economical development and its environmental concern. The goal of this study was to contribute to a better understanding of pollutant transfer and nutrient cycling at the local scale, in order to implement the necessary improvements to guarantee the sustainability of this practice.An approach based on geochemical processes occurring in the vadose zone from the surface down to the groundwater level was chosen, at the scale of cultivated plots and at the regional scale of Dakar periurban areas, to determine the influence of land use.The assessment of irrigation with untreated domestic wastewater and brackish water on soil quality (chapter 2) showed: (1) that the high alkalinity and calcium contents of brackish water induce CaC03 precipitation in the top layer of the soil and therefore a replacement of Ca by Na on the clay- humic complexes, strongly marked during the dry season. Dissolved organic carbon (DOC) increased significantly in the soil solution and in the underlying groundwater. (2) in spite of the similarly high alkalinity and Ca contents of waste water, there is only little CaC03 precipitation and a low increase of the percentage of exchangeable sodium (ESP) in the soil top layer. The nitrification of the ammonium of wastewater (mean 190 mg/L in Pikine) produces protons, which are not any more buffered by bicarbonates exported out of the soil profile, which leads to a net decline of soil pH. Both soils irrigated with untreated wastewater and brackish water store less of C and Ν than soils irrigated with non saline groundwater.The assessment of the impact of land use on the shallow groundwater (chapter 3) allowed determining representative tracers of the land use. Low Br/CI ratio, high NO3/CI ratio and low δ1βΟ- nitrate indicated the influence of wastewater; high pH and high 515N-nitrates indicated the influence of brackish water together with high amendments of organic fertilizers; high Rb+Cr and Κ indicated the influence of poor sanitation facilities in periurban districts (septic tank leakage). This chapter also pointed out the following facts about the nitrogen dynamics : (1) denitrification is a key-process in the Dakar UA agrosystem in the gleysols irrigated with groundwater. The underlying groundwater is almost nitrate free. (2) in the Gleysols irrigated with waste water, ammonium inhibits denitrification but facilitate ammoniac volatilization. A comparison of nitrogen balance between the UA agrosystem and the periurban districts of Dakar (chapter 4) revealed similar flows per surface unit, namely 2-4 tons Ν / ha / year.The evaluation of pesticides use in the UA agrosystem and the risk assessment for the groundwater (chapter 5) revealed a total flow of pesticides of 60kg / ha / year, totalizing 15 active substances. Only two of these are authorized by the Sahelian Pesticides Committee. The most used pesticides are dicofol (organochlorinated), methamidophos, dimethoate and fenithrotion (organophosphate) as well as methomyl. (carbamate). The most important flows vary between 9 to 7 kg / ha / year. Pesticides with a high risk of groundwater contamination - according to SIRIS and EPRIP 2 indicators - are: carbofuran, dimethoate, ethoprophos and methomyl. These substances should be established as a priority for an analytical follow-up in the different environmental compartments.In conclusion, a better management of the fertilization is necessary in the Dakar UA, (1) to reduce the gaseous losses which contribute to greenhouse emissions (2) to slow down the mineralization of the organic carbon and the nitrogen, in order to enhance the C and Ν stock in these soils, (3) to limit the nitrate leaching in the groundwater and finally, 4) to increase the N-use efficiency of plants. An optimization of the irrigation scheme should limit the secondary sodisation if coupled with an increase the stable organic matter of the soil. An integrated or biologic crop pest strategy is urgently needed to minimize risks with respect to ground and surface water (ponds used for fishing).RESUME LARGE PUBLICL'agriculture mondiale connaît actuellement une crise majeure, affectée par les changements climatiques, la sécurité alimentaire et les dégradations de l'environnement. Elle n'a plus le rôle unique de produire, mais devient un élément essentiel de la protection des ressources naturelles et du paysage. Les politiques agricoles basées sur les marchés mondiaux devront se réorienter vers une agriculture locale basée sur le développement durable.La production alimentaire située dans l'enceinte des villes, nommée agriculture urbaine ou périurbaine (AU ci-après) joue un rôle important dans le contexte actuel d'accroissement de la population et de la pauvreté urbaines. L'AU concerne en effet la majorité des mégapoies du monde, fait vivre plus de 200 millions de personnes dans les pays du Sud, fournit jusqu'à 80% de la demande urbaine en certains produits frais, fait barrière à l'extension urbaine et permet un recyclage de certains déchets urbains. L'AU a pour particularité d'être à cheval entre des politiques rurales et urbaines, d'où un délaissement ce cette activité au secteur informel. Ce qui a développé de nombreuses stratégies à risques, comme à Dakar, où les petits producteurs périurbains irriguent quotidiennement avec des eaux usées domestiques par manque d'accès à une eau de bonne qualité et pour raccourcir les cycles de production. L'extrême précarité foncière des acteurs de l'AU de Dakar les empêchent d'investir à long terme et induit des pratiques inadéquates d'irrigation, d'usage de pesticides et de fertilisation de ces sols sableux.L'objectif de cette recherche était de contribuer à une meilleure connaissance des processus de transfert de polluants et du cycle des nutriments à l'échelle des parcelles cultivées par des eaux usées et des eaux saumâtres, afin de déterminer sous quelles conditions l'AU de Dakar peut être pratiquée et surtout maintenue sans porter atteinte à la santé et à l'environnement. Pour cela, une approche basée sur l'étude des processus géochimiques dans le sol jusqu'à la nappe a été choisie, à l'échelle de la parcelle cultivée et à une échelle un peu plus large de la zone périurbaine de Dakar pour déterminer les influences du type d'occupation du sol.Les résultats principaux de cette étude ont montré que (1) il y a un processus de salinisation anthropique des sols (sodisation) lors d'irrigation avec des eaux de nappe saumâtres, un processus accentué en saison sèche et lors d'années à pluviométrie déficitaire. Bien que les eaux usées soient aussi salines que les eaux de nappe, la salinisation des sols irrigués' par des eaux usées est limitée par l'ammonium présent dans les eaux usées (moy 190mg NH4/L à Pikine) qui produit de l'acidité lors de la transformation en nitrates dans le sol (nitrification). (2) les sols irrigués par des eaux usées (EU) stockent moins de C et Ν que les sois de référence, ce qui montrent bien que l'azote des eaux usées n'est pas disponible pour les plantes, mais est lessivé dans la nappe (100 à 450 mg/L N03 sous irrigation par EU, alors que la limite de OMS est de 50mg/L). (3) l'utilisation des isotopes stables des nitrates et des éléments traces, notamment le bore et le brome, ont permis de distinguer l'influence de l'irrigation par des eaux usées, de l'irrigation par des eaux de nappe et des lixiviats de fosses septiques sur les propriétés de la nappe. (4) Le processus de la dénitrification (atténuation naturelle des concentrations en nitrates de la nappe par biotransformation en azote gazeux) est important dans les zones basses de l'agrosystème périurbain de Dakar, sous irrigation par eaux naturelles (ΝΟ3 < 50mg/L). Tandis que sous habitat sans assainissement adéquat, les nitrates atteignent 300 à 700 mg/L. (5) Le flux total de pesticides dans l'AU est énorme (60kg/ha/an) totalisant 15 pesticides, dont deux seulement sont autorisés. Les pesticides les plus utilisés sont des insecticides organophosphorés et organochlorés classés extrêmement dangereux à dangereux par l'OMS, appliqués à des doses de 2 à 9 kg/ha/an. Les pesticides qui ont montré un risque élevé de contamination des eaux souterraines avec les indicateurs SIRIS et EPRIP2 sont : le carbofuran, le dimethoate, l'ethoprophos et le methomyl.En conclusion, nous recommandons la reconstitution d'un horizon superficiel des sols riche en matière organique stable et structuré par production locale de compost. Cette mesure réduira les pertes gazeuses contribuant à l'effet de serre, augmentera le stock de Ν dans ces sols, alors utilisable par les plantes et permettra de diminuer l'irrigation car la capacité de rétention de l'eau dans le sol sera accru, ce qui limitera le lessivage des nitrates dans la nappe et l'alcalinisation secondaire. Enfin, la mise en place d'une lutte intégrée ou biologique contre les ravageurs est indispensable afin de minimiser les risques pour les eaux souterraines et lesmares permanentes.
Resumo:
We prove some results concerning the possible configuration s of Herman rings for transcendental meromorphic functions. We show that one pole is enough to obtain cycles of Herman rings of arbitrary period a nd give a sufficient condition for a configuration to be realizable.
Resumo:
Il est maintenant accepté par une large part de la communauté scientifique que le climat est en train de changer sous l'influence des gaz à effet de serre émis par les activités humaines. Pour la Suisse, cela correspond à une augmentation des températures et à une diminution probable des précipitations estivales.Etant donné le manque de recul et de données historiques précises, l'influence des changements climatiques sur la biodiversité n'est encore connue que d'études ponctuelles limitées à certaines espèces. Celles-ci nous livrent néanmoins des signaux clairs de changement dans la distribution et la phénologie des espèces, généralement cohérents avec les résultats des modèles prédictifs pour le futur.Globalement, les espèces montrent une tendance à migrer vers les altitudes supérieures. Celles qui occupent aujourd'hui les altitudes les plus élevées vont probablement voir leur domaine se rétrécir. De grands risques d'extinction planent donc sur les espèces alpines, pour lesquelles la Suisse a une responsabilité toute particulière. Parallèlement, la diminution des précipitations estivales va augmenter les problèmes de sécheresses, ce qui pourrait conduire, par exemple, à une réduction des forêts en Valais central et à un assèchement prématuré des lieux de ponte des amphibiens. Inversement, certaines espèces thermophiles de basses altitudes pourraient profiter des nouvelles conditions en accroissant leur domaine de répartition, comme déjà observé chez certains insectes.En plus des changements climatiques, d'autres facteurs menacent indirectement les espèces. La forte fragmentation du territoire limitera la capacité des espèces à coloniser de nouveaux territoires par manque de connexions entre les milieux favorables. Un climat plus chaud permettra une intensification de l'agriculture en montagne, accompagnée des effets néfastes déjà bien connus en plaine, ou pourrait favoriser certaines maladies. De plus, les printemps plus précoces décaleront le développement de certaines espèces, ce qui pourrait fortement modifier les interactions entre espèces et les chaînes trophiques.Les conséquences des changements climatiques sur la biodiversité dépendront aussi des décisions prises au niveau national et international et des mesures prises pour la protection du climat. Afin de limiter les pertes, il est important de mettre en place des corridors favorisant la colonisation de nouvelles aires par les espèces et d'utiliser les synergies possibles entre protection de la biodiversité et lutte contre les changements climatiques. De plus, le monitoring des espèces les plus sensibles aidera à développer, avant qu'il ne soit trop tard, les mesures complémentaires nécessaires à leur conservation.
Resumo:
Summary Gynodioecy, the joint occurrence of females and hermaphrodites within natural populations, is a widely studied mating system ever since Darwin (1877). It is an exceptional mating system because continuous selection is necessary to maintain it. Since females only reproduce through ovules whereas hermaphrodites transmit genes through ovules and pollen, larger female fitness, in terms of seed output, is required to allow their maintenance. Two non-exclusive mechanisms can account for the maintenance of females. First, as females do not produce pollen they can reallocate their resources towards a higher ovule production. Second, hermaphrodites can self- and cross-fertilize whereas females are obligate outcrossers. Thus hermaphrodites should partly suffer from inbreeding depression (i.e.: the fitness decline of inbred relative to outbred individuals) and thereby produce less fit progeny than females. This thesis investigated the effects of self- and cross-fertilization of heimaphrodites over two consecutive generations. Inbreeding depression increased across the successive stages of the life- cycle (i.e.: from "seed traits" to "reproductive traits") displaying large inbreeding depression estimates (up to 0.76). This investigation not only detected large inbreeding depression estimates but also detected mechanisms involved in the maintenance of inbreeding depression. For instance cryptic self-incompatibility which is here a larger in vivo pollen performance of distant pollen compared to self-pollen; the expression of inbreeding depression especially in late life-cycle stages, and the appearance of females in the progeny of selfed hermaphrodites. The female biased sex ratio in the progeny of selfed hermaphrodites was a surprising result and could either come from the sex determining mechanisms (complex nucleo-cytoplasmic interaction(s)) and/or from inbreeding depression. Indeed, we not only got females and hermaphrodites but also partial male-sterile (PMS) individuals (i.e.: individuals with differing number of viable stamens). We detected that inbred pollen bearing plants (excluding females) have less viable stamens per flower than outbred plants. A positive correlation was detected between inbreeding depression for the number of viable stamens per flower and the difference in sex ratio between inbred and outbred individuals. A positive relationship was also detected between inbreeding depression for pollen viability and inbreeding depression for number of viable stamens per flower. Each correlation can either account for pleiotropic effects (a major gene acting on the two considered traits) or linkage disequilibrium between genes controlling each of the two related traits. If we hypothesize that these correlations are due to a major gene with pleiotropic effects, the positive relationship between inbreeding depression for number of viable stamens per flower and inbreeding depression for pollen viability showed that deleterious alleles present on a major gene coding for pollen production and viability depressed male fitness within inbred plants. The positive relationship between sex ratio difference between inbred and outbred individuals and inbreeding depression for number of viable stamens per flower indicates that (1) either number of viable stamens per flower is, in addition to inbreeding, also affected by the loci coding for sex determinism or, (2) the presence of females within the progeny of selfed hermaphrodites is a consequence of large inbreeding depression inhibiting pollen production, or (3) sex is here determined by a combination of loci coding for sex expression and inbreeding depression for male reproductive traits. In conclusion, Silene vulgaris has been shown to be a good model for understanding the evolution of mating systems that promote outbreeding. Résumé La gynodïoécie est définie comme étant la présence simultanée d'hermaphrodites et de femelles au sein de populations naturelles d'une même espèce. Ce système de reproduction a toujours fasciné le monde scientifique depuis Darwin, comme en témoigne ses écrits (1876, 1877) sur les systèmes de reproduction chez les plantes. Les femelles ne transmettent leurs gènes qu'à travers leurs ovules alors que les hermaphrodites transmettent leurs gènes à la fois par la voie mâle (le pollen) et la voie femelle (les ovules). La condition pour que la gynodïoécie se maintienne nécessite donc une fitness de la fonction femelle plus élevée chez les femelles que chez les hermaphrodites. Deux mécanismes mutuellement non exclusifs peuvent expliquer le maintien des femelles au sein de ces populations gynodioïques. D'une part, les femelles peuvent réallouer les ressources non utilisées pour la production de pollen et peuvent par conséquent produire plus d'ovules. D'autre part, la reproduction des femelles ne peut se faire que par allo-fécondation alors que les hermaphrodites, peuvent se reproduire à la fois par auto- et allo-fécondation. L'autofécondation s'accompagne en général d'une diminution de fitness de la descendance relativement à la progéniture issue d'allo-fécondation ; ce phénomène est connu sous le nom de dépression de consanguinité. Cette thèse avait pour but de mettre en évidence une éventuelle dépression de consanguinité chez Silene vulgaris, une espèce gynodioïque. Des hermaphrodites, issus de trois vallées alpines, ont été auto- et allo¬fécondés sur deux générations successives. La dépression de consanguinité pouvant s'exprimer à tous les stades de vie d'un individu, plusieurs traits de fitness, allant du nombre de graines par fruit à la production de gamètes ont été mesurés sur différents stades de vie successifs. L'estimation de la dépression de consanguinité totale atteignait des valeurs allant de 0.52 à 0.76 selon la vallée considérée, ce qui indiquerait que les hermaphrodites ont tout intérêt à limiter l'autofécondation et que les femelles ne devraient pas avoir de peine à subsister dans les vallées étudiées. Par la même occasion des mécanismes diminuant la purge potentielle du fardeau génétique, et permettant ainsi le maintien du « niveau » de dépression de consanguinité et par conséquence le maintien de la gynodïoécie ont été mis en évidence. En effet, nos résultats montrent que la dépression de consanguinité s'exprimait tard dans le cycle de vie permettant ainsi à un certain nombre individus consanguins de transmettre leurs allèles délétères à la génération suivante. D'autre part, la croissance in vivo des tubes polliniques d'auto-pollen était plus lente que celle de l'allo-pollen et donc en situation de compétition directe, les ovules devraient plutôt être issus d'allo-fécondation, diminuant ainsi les chances de purges d'allèles délétères. Enfin, l'apparition de femelles dans la progéniture d'hermaphrodites autofécondés diminue aussi les chances de purge d'allèles délétères. Il nous a été impossible de déterminer si l'apparition de femelles dans la descendance d'hermaphrodites autofécondés était due au déterminisme génétique du sexe ou si la différence de sexe ratio entre la descendance auto- et allo-fécondée était due à une éventuelle dépression de consanguinité inhibant la production de pollen. Nous avons observé que S. vulgaris ne présentaient pas uniquement des hermaphrodites et des femelles mais aussi toute sorte d'individus intermédiaires avec un nombre variable d'étamines viables. Nous avons pu mettre' en évidence des corrélations positives entre (1) la différence de sexe ratio (la proportion d'individus produisant du pollen) entre individus consanguins et non consanguins et une estimation de la dépression de consanguinité pour le nombre d'étamines viables d'individus produisant du pollen, ainsi qu'entre (2) la dépression de consanguinité pour le nombre d'étamines viables et celle estimée pour la viabilité du pollen. Chaque corrélation indique soit l'effet d'un (ou plusieurs) gène(s) pléiotropique(s), soit un déséquilibre de liaison entre les gènes. En considérant que ces corrélations sont le résultat d'effet pléiotropiques, la relation entre le nombre d'étamines viables par fleur et la viabilité du pollen, indiquerait un effet négatif de la consanguinité sur la production et la viabilité du pollen due partiellement à un gène majeur. La seconde corrélation indiquerait soit que les gènes responsables de la détermination du sexe agissent aussi sur l'expression de la fonction mâle soit que l'expression du sexe est sujette à la dépression de consanguinité, ou encore un mélange des deux. Aux regards de ces résultats, Silene vulgaris s'est avéré être un bon modèle de compréhension de l'évolution des systèmes de reproduction vers la séparation des sexes.
Resumo:
AbstractPlants are sessile organisms, which have evolved an astonishing ability to sense changes in their environment. Depending on the surrounding conditions, such as changes in light and temperature, plants modulate the activity of important transcriptional regulators. The shade avoidance syndrome (SAS) is one important mechanism for shade-intolerant plants to adapt their growth in high vegetative density. In shaded conditions plants sense a diminished red/far-red ratio via the phytochrome system and respond with morphological changes such as elongation growth of stems and petioles. The Phytochrome Interacting Factors 4 and 5 (PIF4 and PIF5) are positive regulators of the SAS and required for a full response (Lorrain et al, 2008). They regulate the SAS by inducing the expression of shade avoidance marker genes such as PIL1, ATHB2, XTR7 and HFR1 (Hornitschek et al, 2009; Lorrain et al, 2008).I investigated the molecular mechanism underlying the regulation of the SAS by HFR1 (long Hypocotyl in FR light). Although HFR1 is a PIF-related bHLH transcription factor, we discovered that HFR1 is a non-DNA binding protein. Moreover, we revealed that HFR1 inhibits an exaggerated SAS by forming non-DNA binding heterodimers with PIF4 and PIF5 (Hornitschek et al, 2009). This negative feedback loop is an important mechanism to limit elongation growth also in elevated temperatures. HFR1 accumulation and activity are highly temperature-dependent and the increased activity of HFR1 at warmer temperatures also provides an important restraint on PIF4-driven elongation growth (Foreman et al, 2011).Finally we performed a genome-wide analysis to determine how PIF4 and PIF5 regulate growth in response to shade. We identified potential PIF5- target genes, which represent many well-known shade-responsive genes. Our analysis of gene expression also revealed a role of PIF4 and PIF5 in simulated sun possibly via the regulation of auxin sensitivity.RésuméLes plantes sont des organismes sessiles ayant développé une capacité surprenante à détecter des changements dans leur environnement. En fonction des conditions extérieures, telles que les variations de lumière ou de température, elles adaptent l'activité d'importants régulateurs transcriptionnels. Le syndrome d'évitement de l'ombre (SAS), est un mécanisme important pour les plantes intolérantes à l'ombre leur permettant d'adapter leur croissance lorsqu'elles se développent dans des conditions de végétations très denses. Dans ces conditions, les plantes détectent une réduction de la quantité relative de lumière rouge par rapport à la lumière rouge-lointain (rapport R/FR). Ce changement, perçu via le système des phytochromes, induit des modifications morphologiques telle qu'une élongation des tiges et des pétioles. Les protéines PIF4 et PIF5 (Phytochrome Interacting Factors) sont des régulateurs positifs du SAS et sont nécessaires pour une réponse complète (Lorrain et al, 2008). Ces facteurs de transcription régulent le SAS en induisant l'expression de gènes marqueurs de cette réponse tels que PIL1, ATHB2, XTR7 et HFR1 (Hornitschek et al, 2009; Lorrain et al, 2008).J'ai étudié les mécanismes moléculaires sous-jacents à la régulation du SAS par HFR1 (long Hypocotyl in FR light). HFR1 est un facteur de transcription type bHLH de la famille des PIF, quoique nous ayons découvert que HFR1 est une protéine ne se liant pas à Γ ADN. Nous avons montré que HFR1 inhibe un SAS exagéré en formant des heterodimères avec PIF4 et PIF5 (Hornitschek et al, 2009). Nous avons également montré que cette boucle de régulation négative est également un mécanisme important pour limiter la croissance de l'élongation dans des conditions de fortes températures. De plus l'accumulation et l'activité de HFR1 augmentent avec la température ce qui permet d'inhiber plus fortement l'effet activateur de PIF4 sur la croissance.Enfin, nous avons effectué une analyse génomique à large échelle afin de déterminer comment PIF4 et PIF5 régulent la croissance en réponse à l'ombre. Nous avons identifié les gènes cibles potentiels de PIF5, correspondant en partie à des gènes connus dans la réponse de l'évitement de l'ombre. Notre analyse de l'expression des gènes a également révélé un rôle important de PIF4 et PIF5 dans des conditions de croissance en plein soleil, probablement via la régulation de la sensibilité à l'auxine.
Resumo:
Collectively, research aimed to understand the regeneration of certain tissues has unveiled the existence of common key regulators. Knockout studies of the murine Nuclear Factor I-C (NFI-C) transcription factor revealed a misregulation of growth factor signaling, in particular that of transforming growth factor ß-1 (TGF-ßl), which led to alterations of skin wound healing and the growth of its appendages, suggesting it may be a general regulator of regenerative processes. We sought to investigate this further by determining whether NFI-C played a role in liver regeneration. Liver regeneration following two-thirds removal of the liver by partial hepatectomy (PH) is a well-established regenerative model whereby changes elicited in hepatocytes following injury lead to a rapid, phased proliferation. However, mechanisms controlling the action of liver proliferative factors such as transforming growth factor-ßl (TGF-ß1) and plasminogen activator inhibitor-1 (PAI-1) remain largely unknown. We show that the absence of NFI-C impaired hepatocyte proliferation due to an overexpression of PAI-1 and the subsequent suppression of urokinase plasminogen (uPA) activity and hepatocyte growth factor (HGF) signaling, a potent hepatocyte mitogen. This indicated that NFI-C first acts to promote hepatocyte proliferation at the onset of liver regeneration in wildtype mice. The subsequent transient down regulation of NFI-C, as can be explained by a self- regulatory feedback loop with TGF-ßl, may limit the number of hepatocytes entering the first wave of cell division and/or prevent late initiations of mitosis. Overall, we conclude that NFI-C acts as a regulator of the phased hepatocyte proliferation during liver regeneration. Taken together with NFI-C's actions in other in vivo models of (re)generation, it is plausible that NFI-C may be a general regulator of regenerative processes. - L'ensemble des recherches visant à comprendre la régénération de certains tissus a permis de mettre en évidence l'existence de régulateurs-clés communs. L'étude des souris, dépourvues du gène codant pour le facteur de transcription NFI-C (Nuclear Factor I-C), a montré des dérèglements dans la signalisation de certains facteurs croissance, en particulier du TGF-ßl (transforming growth factor-ßl), ce qui conduit à des altérations de la cicatrisation de la peau et de la croissance des poils et des dents chez ces souris, suggérant que NFI-C pourrait être un régulateur général du processus de régénération. Nous avons cherché à approfondir cette question en déterminant si NFI-C joue un rôle dans la régénération du foie. La régénération du foie, induite par une hépatectomie partielle correspondant à l'ablation des deux-tiers du foie, constitue un modèle de régénération bien établi dans lequel la lésion induite conduit à la prolifération rapide des hépatocytes de façon synchronisée. Cependant, les mécanismes contrôlant l'action de facteurs de prolifération du foie, comme le facteur de croissance TGF-ßl et l'inhibiteur de l'activateur du plasminogène PAI-1 (plasminogen activator inhibitor-1), restent encore très méconnus. Nous avons pu montrer que l'absence de NFI-C affecte la prolifération des hépatocytes, occasionnée par la surexpression de PAI-1 et par la subséquente suppression de l'activité de la protéine uPA (urokinase plasminogen) et de la signalisation du facteur de croissance des hépatocytes HGF (hepatocyte growth factor), un mitogène puissant des hépatocytes. Cela indique que NFI-C agit en premier lieu pour promouvoir la prolifération des hépatocytes au début de la régénération du foie chez les souris de type sauvage. La subséquente baisse transitoire de NFI-C, pouvant s'expliquer par une boucle rétroactive d'autorégulation avec le facteur TGF-ßl, pourrait limiter le nombre d'hépatocytes qui entrent dans la première vague de division cellulaire et/ou inhiber l'initiation de la mitose tardive. L'ensemble de ces résultats nous a permis de conclure que NFI-C agit comme un régulateur de la prolifération des hépatocytes synchrones au cours de la régénération du foie.
Resumo:
Le diabète de type 2 (DT2) a une prévalence élevée dans les pays industrialisés, et on s'attend à une augmentation dans les années à venir en raison du vieillissement de la population ainsi que des modifications du mode de vie. Il existe malheureusement peu de données épidémiologiques sur la prévalence et la prise en charge du diabète en Suisse. Les objectifs de cette étude étaient donc 1) évaluer la prévalence du DT2 dans une cohorte lausannoise ; 2) caractériser la prise en charge des patients atteints de DT2, et 3) identifier les facteurs associés à la prévalence, la connaissance par les patients de leur maladie et le traitement du DT2. Pour ce faire, 6181 sujets (3246 femmes), âgés de 35 à 75 ans et vivant à Lausanne ont été inclus dans l'étude. La prévalence totale du DT2 était de 6.3% (intervalle de confiance à 95%: 5.7-7.0%), une valeur comparable à celle des pays avoisinants. La prévalence était plus élevée chez les hommes que chez les femmes (9.1% contre 3.8%, p<0.001), et augmentait avec l'âge. Deux tiers des patients avec DT2 (65.3% ; 60.4-70.0%) avaient connaissance de leur situation, et plus de trois-quarts d'entre eux étaient traités. Les hommes étaient plus fréquemment traités que les femmes (91.3% contre 75.9%, p<0.001). La plupart des patients suivait une monothérapie (majoritairement par biguanides). Parmi les sujets avec une thérapie multiple, une prévalence plus élevée de glycémie à jeun >7 mmol/1 était présente. L'analyse multivariée a montré que le sexe masculin, l'âge croissant et un indice de masse corporelle élevé étaient associés à une plus grande prévalence du DT2, alors qu'aucune association n'a été trouvée pour l'activité physique et la consommation d'alcool. Parmi les sujets atteints de DT2, l'âge croissant était positivement associé à la connaissance du diabète, de même que l'âge croissant et le sexe masculin étaient associés à une plus grande prévalence du traitement. Le faible taux de connaissance de diabète pourrait être dû à un manque de dépistage par les médecins de premier recours. La présence d'autres facteurs de risque cardiovasculaire devrait inciter les médecins à un dépistage du diabète pour obtenir un meilleur profil de risque. Cette étude a des limitations. D'abord, aucune mesure de l'hémoglobine glyquée n'a été mesurée, et par conséquent la détermination de la prise en charge uniquement par la glycémie à jeun peut être difficile. Ensuite, le taux de participation était bas et pourrait limiter l'interprétation des résultats ; néanmoins, il est comparable à celui d'autres études effectuées dans les pays occidentaux. Il existe peu de données épidémiologiques du DT2 en Suisse, cette étude permet donc d'évaluer la situation actuelle et de déterminer la prévalence et la prise en charge du diabète à Lausanne à travers la cohorte CoLaus. Une telle étude a par conséquent son importance dans le contexte actuel, au vu du vieillissement de la population et de l'augmentation des facteurs de risque cardio-vasculaires.
Resumo:
L'épreuve « factuelle » et physique de la brûlure grave des grands brûlés de la face fait l'objet d'une analyse sociologique systématique : alors qu'un accident peut, en quelques secondes, provoquer une véritable rupture biographique, l'acceptation du nouveau statut et la « reconstruction » d'un rapport à soi et aux autres prend beaucoup de temps. Les modalités de cette reconstruction et les tentatives pour retrouver une impossible « apparence normale » dans la vie publique sont ici analysées. Tout en étant attentive aux modalités de l'interaction, la présente étude relève d'une démarche sociologique compréhensive menée à partir d'observations et d'entretiens conduits avec ces personnes, amenant dans le giron de la sociologie une expérience éprouvanteencore peu connue, celle des grands brûlés de la face. Le registre discursif adossé à cette dernière vient compléter certaines représentations véhiculées par les médias, les fictions et qui influent sur la perception et la visibilité de ceux-ci. A l'aune du concept d'épreuve issu de la « sociologie pragmatique », le parcours du grand brûlé peut être examiné en prêtant une attention particulière au moment initial du parcours post¬brûlure : l'accident. La mise en récit de cette première épreuve est révélatrice des tentatives pour le grand brûlé de maintenir un lien entre un avant et un après l'accident. S'ensuit un continuum d'épreuves intervenant dès le moment où les grands brûlés se présentent physiquement face à autrui dans l'espace public suscitant des réactions de gêne et de malaise. Dans le prolongement des travaux d'Erving Goffman, on peut les concevoir comme des motifs d'« inconfort interactionnel ». Cette mise en évidence de l'inconfort interactionnel montre la nécessité de ne pas se limiter à une sociologie de la brûlure grave qui s'attarderait seulement sur les ajustements des interactions. A partir des travaux d'Axel Honneth sur la reconnaissance, il est possible de lire cette gestion des situations d'interaction dans une autre optique, celle qui, pour le grand brûlé, consiste à se préserver du mépris. Ce travail met l'accent sur des habiletés interactionnelles, des compétences qui fonctionnent comme des ressorts et permettent au grand brûlé de gérer des situations susceptibles de conduire au mépris. En s'appuyant sur des situations d'interaction racontées, deux formes de lutte individuelle, de quête de reconnaissance, peuvent être dégagées : d'une part, la « lutte contre » la trop grande visibilité et contre la prégnance de certains préjugés et, d'autre part, la « lutte pour » faire connaître des aspects invisibles ou moins visibles de la brûlure grave. - This thesis analyzes the "factual" and physical ordeal of a severe burn as experienced by victims of severe facial burns. In a few seconds, an accident provokes a biographical rupture and persons involved need time to integrate their new status. This thesis concentrates on the "reconstruction" modes of the relationship with oneself and with others, and on attempts to find an impossible "normal appearance" in public life. While being attentive to the modalities of interaction, the study uses comprehensive sociology based on observations and interviews. This thesis brings into sociology litde known views of those suffering severe facial burns. These views supplement certain media representations that influence perceptions and visibility of the people involved. Applying the concept of test, a key concept of pragmatic sociology, the progression of a severely burned person can be described by focusing on the initial moment: the accident. The recounting of this first challenge reveals the severely burned person's efforts to link the "before" and "after" the accident. A continuum of challenges follows. These tests occur when the severely burned person physically faces others in a public space and when visible discomfort and embarrassment show, reactions which we consider, following Erving Goffman's works, as situations of "interactional discomfort." Emphasis on interactional discomfort shows the necessity of expanding the sociology of severe burns to more than just adjustments to interactions. Based on Axel Honneth's works, we can read the management of interactions from another point of view, in which the severely burned person tries to avoid contempt. This work emphasizes interactional aptitudes, skills that act like rebounding springs, and allow the severely burned person to manage situations that might lead to contempt. Starting with descriptions of interactions, we have determined two forms of individual struggle that appear to be a search for recognition: on one hand, the "struggle against" too much visibility and against the strength of certain prejudices, and, on the other hand, a "struggle for" making known rtain invisible or less visible aspects of a severe burn.
Resumo:
La présente recherche se propose de désobstruer un certain nombre de catégories « esthétiques », au sens étendu du terme, de leur métaphysique implicite. La thèse que je souhaite défendre se présente sous la forme d'un paradoxe : d'une part, le sens originel d'« esthétique » a été perdu de vue, d'autre part, malgré cet oubli, quiconque s'interroge philosophiquement sur les beaux-arts reçoit, nolens volens, Baumgarten en héritage. Avec AEsthetica (1750/1758), ouvrage inachevé et hautement problématique, nous pourrions dire, citant René Char, qu'il s'agit-là d'un « héritage précédé d'aucun testament ». En d'autres termes, ce qui nous échoit nous occupe, voire nous préoccupe, sans que nous disposions des outils conceptuels pour nous y rapporter librement. Soyons clairs, je ne soutiens pas que l'esthétique philosophique, telle qu'elle s'énonce à ses débuts, soit un passage obligé pour penser l'art, et ce d'autant plus qu'il ne s'agit pas d'un passage, mais proprement d'une impasse. Ce que je veux dire, c'est que Kant répond à Baumgarten, et que Hegel répond à Kant et ainsi de suite. Il n'y a pas de tabula rasa dans l'histoire de la pensée, et l'oubli de l'historicité d'une pensée est le meilleur moyen de la neutraliser en simple supplément culturel, tout en demeurant entièrement captifs de ses présupposés.Au départ, la question qui motivait implicitement la rédaction de cette recherche se formulait ainsi : « Dans quelle mesure la philosophie énonce-t-elle quelque chose d'important au sujet des beaux-arts ? » Au fil du temps, la question s'est inversée pour devenir : « Qu'est-ce que les écrits sur les beaux- arts, tels qu'ils foisonnent au 18e siècle, nous enseignent à propos de la philosophie et des limites inhérentes à sa manière de questionner ?» Et gardons-nous de penser qu'une telle inversion cantonne la question de l'esthétique, au sens très large du terme, à n'être qu'une critique immanente à l'histoire de la philosophie. Si la philosophie était une « discipline » parmi d'autres, un « objet » d'étude possible dans la liste des matières universitaires à choix, elle ne vaudrait pas, à mon sens, une seule heure de peine. Mais c'est bien parce que la philosophie continue à orienter la manière dont nous nous rapportons au « réel », au « monde » ou à l'« art » - je place les termes entre guillemets pour indiquer qu'il s'agit à la fois de termes usuels et de concepts philosophiques - que les enjeux de la question de l'esthétique, qui est aussi et avant tout la question du sentir, excèdent l'histoire de la philosophie.Pour introduire aux problèmes soulevés par l'esthétique comme discipline philosophique, j'ai commencé par esquisser à grands traits la question du statut de l'image, au sens le plus général du terme. Le fil conducteur a été celui de l'antique comparaison qui conçoit la poésie comme une « peinture parlante » et la peinture comme une « poésie muette ». Dans le prolongement de cette comparaison, le fameux adage ut pictura poesis erit a été conçu comme le véritable noeud de toute conception esthétique à venir.Il s'est avéré nécessaire d'insister sur la double origine de la question de l'esthétique, c'est-à-dire la rencontre entre la pensée grecque et le christianisme. En effet, l'un des concepts fondamentaux de l'esthétique, le concept de création et, plus spécifiquement la possibilité d'une création ex nihiio, a été en premier lieu un dogme théologique. Si j'ai beaucoup insisté sur ce point, ce n'est point pour établir une stricte identité entre ce dogme théologique et le concept de création esthétique qui, force est de l'admettre, est somme toute souvent assez flottant dans les écrits du 18e siècle. L'essor majeur de la notion de création, couplée avec celle de génie, sera davantage l'une des caractéristiques majeures du romantisme au siècle suivant. La démonstration vise plutôt à mettre en perspective l'idée selon laquelle, à la suite des théoriciens de l'art de la Renaissance, les philosophes du Siècle des Lumières ont accordé au faire artistique ou littéraire une valeur parfaitement inédite. Si l'inventeur du terme « esthétique » n'emploie pas explicitement le concept de création, il n'en demeure pas moins qu'il attribue aux poètes et aux artistes le pouvoir de faire surgir des mondes possibles et que ceux-ci, au même titre que d'autres régions de l'étant, font l'objet d'une saisie systématique qui vise à faire apparaître la vérité qui leur est propre. Par l'extension de l'horizon de la logique classique, Baumgarten inclut les beaux-arts, à titre de partie constituante des arts libéraux, comme objets de la logique au sens élargi du terme, appelée « esthético- logique ». L'inclusion de ce domaine spécifique d'étants est justifiée, selon les dires de son auteur, par le manque de concrétude de la logique formelle. Or, et cela n'est pas le moindre des paradoxes de l'esthétique, la subsomption des beaux-arts sous un concept unitaire d'Art et la portée noétique qui leur est conférée, s'opère à la faveur du sacrifice de leur singularité et de leur spécificité. Cela explique le choix du titre : « métaphysique de l'Art » et non pas « métaphysique de l'oeuvre d'art » ou « métaphysique des beaux-arts ». Et cette aporîe constitutive de la première esthétique est indépassable à partir des prémices que son auteur a établies, faisant de la nouvelle discipline une science qui, à ce titre, ne peut que prétendre à l'universalité.Au 18e siècle, certaines théories du beau empruntent la voie alternative de la critique du goût. J'ai souhaité questionner ces alternatives pour voir si elles échappent aux problèmes posés par la métaphysique de l'Art. Ce point peut être considéré comme une réplique à Kant qui, dans une note devenue célèbre, soutient que « les Allemands sont les seuls à se servir du mot "esthétique" pour désigner ce que d'autres appellent la critique du goût ». J'ai démontré que ces deux termes ne sont pas synonymes bien que ces deux positions philosophiques partagent et s'appuient sur des présupposés analogues.La distinction entre ces deux manières de penser l'art peut être restituée synthétiquement de la sorte : la saisie systématique des arts du beau en leur diversité et leur subsomption en un concept d'Art unitaire, qui leur attribue des qualités objectives et une valeur de vérité indépendante de toute saisie subjective, relègue, de facto, la question du jugement de goût à l'arrière-plan. La valeur de vérité de l'Art, définie comme la totalité des qualités intrinsèques des oeuvres est, par définition, non tributaire du jugement subjectif. Autrement dit, si les oeuvres d'art présentent des qualités intrinsèques, la question directrice inhérente à la démarche de Baumgarten ne peut donc nullement être celle d'une critique du goût, comme opération subjective {Le. relative au sujet, sans que cela soit forcément synonyme de « relativisme »), mais bien la quête d'un fondement qui soit en mesure de conférer à l'esthétique philosophique, en tant que métaphysique spéciale, sa légitimité.Ce qui distingue sur le plan philosophique le projet d'une métaphysique de l'Art de celui d'une esthétique du goût réside en ceci que le premier est guidé, a priori, par la nécessité de produire un discours valant universellement, indépendant des oeuvres d'art, tandis que le goût, pour s'exercer, implique toujours une oeuvre singulière, concrète, sans laquelle celui-ci ne reste qu'à l'état de potentialité. Le goût a trait au particulier et au contingent, sans être pour autant quelque chose d'aléatoire. En effet, il n'est pas un véritable philosophe s'interrogeant sur cette notion qui n'ait entrevu, d'une manière ou d'une autre, la nécessité de porter le goût à la hauteur d'un jugement, c'est-à-dire lui conférer au moins une règle ou une norme qui puisse le légitimer comme tel et le sauver du relativisme, pris en son sens le plus péjoratif. La délicatesse du goût va même jusqu'à être tenue pour une forme de « connaissance », par laquelle les choses sont appréhendées dans toute leur subtilité. Les différents auteurs évoqués pour cette question (Francis Hutcheson, David Hume, Alexander Gerard, Louis de Jaucourt, Montesquieu, Voltaire, D'Alembert, Denis Diderot, Edmund Burke), soutiennent qu'il y a bien quelque chose comme des « normes » du goût, que celles-ci soient inférées des oeuvres de génie ou qu'elles soient postulées a priori, garanties par une transcendance divine ou par la bonté de la Nature elle-même, ce qui revient, en dernière instance au même puisque le geste est similaire : rechercher dans le suprasensible, dans l'Idée, un fondement stable et identique à soi en mesure de garantir la stabilité de l'expérience du monde phénoménal.La seconde partie de la recherche s'est articulée autour de la question suivante : est-ce que les esthétiques du goût qui mesurent la « valeur » de l'oeuvre d'art à l'aune d'un jugement subjectif et par l'intensité du sentiment échappent aux apories constitutives de la métaphysique de l'Art ?En un sens, une réponse partielle à cette question est déjà contenue dans l'expression « esthétique du goût ». Cette expression ne doit pas être prise au sens d'une discipline ou d'un corpus unifié : la diversité des positions présentées dans cette recherche, bien que non exhaustive, suffit à le démontrer. Mais ce qui est suggéré par cette expression, c'est que ces manières de questionner l'art sont plus proches du sens original du terme aisthêsis que ne l'est la première esthétique philosophique de l'histoire de la philosophie. L'exercice du goût est une activité propre du sentir qui, en même temps, est en rapport direct avec la capacité intellectuelle à discerner les choses et à un juger avec finesse et justesse.Avec le goût esthétique s'invente une espèce de « sens sans organe » dont la teneur ontologique est hybride, mais dont le nom est identique à celui des cinq sens qui procurent la jouissance sensible la plus immédiate et la moins raisonnable qui soit. Par la reconnaissance de l'existence d'un goût « juste » et « vrai », ou à défaut, au moins de l'existence d'une « norme » indiscutable de celui-ci, c'est-à-dire de la possibilité de formuler un jugement de goût une tentative inédite de spîritualisation de la sensibilité a lieu.Par conséquent, il est loin d'être évident que ce que j'ai appelé les esthétiques du goût échappent à un autre aspect aporétique de la métaphysique de l'Art, à savoir : passer à côté du caractère singulier de telle ou telle oeuvre afin d'en dégager les traits universels qui permettent au discours de s'étayer. Dans une moindre mesure, cela est même le cas dans les Salons de Diderot où, trop souvent, le tableau sert de prétexte à l'élaboration d'un discours brillant.Par contre, tout l'intérêt de la question du goût réside en ceci qu'elle présente, de façon particulièrement aiguë, les limites proprement métaphysiques dont l'esthétique, à titre de discipline philosophique, se fait la légataire et tente à sa manière d'y remédier par une extension inédite du concept de vérité et sa caractérisai ion en termes de vérité « esthéticologique » au paragraphe 427 de Y Esthétique. Cela dit, le fait même que dans l'empirisme la sensibilité s'oppose, une fois de plus, à l'intellect comme source de la naissance des idées - même si c'est dans la perspective d'une réhabilitation de la sensibilité -, indique que l'horizon même de questionnement demeure inchangé. Si le goût a pu enfin acquérir ses lettres de noblesse philosophique, c'est parce qu'il a été ramené, plus ou moins explicitement, du côté de la raison. Le jugement portant sur les arts et, de manière plus générale, sur tout ce qui est affaire de goût ne saurait se limiter au sentiment de plaisir immédiat. Le vécu personnel doit se transcender en vertu de critères qui non seulement permettent de dépasser le relativisme solipsiste, mais aussi de donner forme à l'expérience vécue afin qu'elle manifeste à chaque fois, et de façon singulière, une portée universelle.Le goût, tel qu'il devient un topos des discours sur l'art au 18e siècle, peut, à mon sens, être interprété comme l'équivalent de la glande pinéale dans la physiologie cartésienne : l'invention d'un « je ne sais quoi » situé on ne sait où, sorte d'Hermès qui assure la communication entre l'âme et le corps et sert l'intermédiaire entre l'intellect et la sensibilité. L'expérience décrite dans l'exercice du goût implique de facto une dimension par définition occultée par la métaphysique de l'Art : le désir. Pour goûter, il faut désirer et accepter d'être rempli par l'objet de goût. Dans l'exercice du goût, le corps est en jeu autant que l'intellect, il s'agit d'une expérience totale dans laquelle aucune mise à distance théorétique n'est, en un premier temps, à même de nous prémunir de la violence des passions qui nous affectent. L'ambiguïté de cette notion réside précisément dans son statut ontologiquement problématique. Mais cette incertitude est féconde puisqu'elle met en exergue le caractère problématique de la distinction entre corps et esprit. Dans la notion de goût est contenue l'idée que le corps pense aussi et que, par voie de conséquence, la sensibilité n'est pas dépourvue de dimension spirituelle. Reste que formuler les choses de la sorte revient à rejouer, en quelque sorte, l'antique diaphorâ platonicienne et à convoquer, une fois de plus, les grandes oppositions métaphysiques telles que corps et âme, sensible et intelligible, matière et forme.La troisième partie est entièrement consacrée à Shaftesbury qui anticipe le statut ontologiquement fort de l'oeuvre d'art (tel qu'il sera thématisé par Baumgarten) et l'allie à une critique du goût. Cet auteur peut être considéré comme une forme d'exception qui confirme la règle puisque sa métaphysique de l'Art laisse une place prépondérante à une critique du goût. Mais le cumul de ces deux caractéristiques opposées un peu schématiquement pour les besoins de la démonstration n'invalide pas l'hypothèse de départ qui consiste à dire que la saisie philosophique de la question du goût et l'invention conjointe de l'esthétique au 18e siècle sont deux tentatives de trouver une issue au problème du dualisme des substances.Cette recherche doit être prise comme une forme de propédeutique à la fois absolument nécessaire et parfaitement insuffisante. Après Baumgarten et le siècle du goût philosophique, les propositions de dépassement des apories constitutives d'une tradition qui pense l'art à partir de couples d'oppositions métaphysiques tels qu'âme et corps, forme et matière, ainsi que leurs traductions dans les arts visuels (dessin et couleur ou encore figuration et abstraction), n'ont pas manqué. Il aurait fallu in fine s'effacer pour laisser la place aux plasticiens eux-mêmes, mais aussi aux poètes, non plus dans l'horizon de Y ut pictura, mais lorsqu'ils expriment, sans verser dans l'analyse conceptuelle, leurs rencontres avec telle ou telle oeuvre (je pense à Baudelaire lorsqu'il évoque Constantin Guys, à Charles Ferdinand Ramuz lorsqu'il rend hommage à Cézanne ou encore à Pascal Quignard lorsqu'il raconte les fresques de la maison des Dioscures à Pompéi, pour ne citer que trois noms qui affleurent immédiatement à ma mémoire tant leur souvenir est vivace et leur exemple un modèle). Et puis il s'agit, malgré tout, de ne pas renoncer pour autant au discours esthétique, c'est- à-dire à la philosophie, mais de réinterroger les catégories dont nous sommes les légataires et de penser avec et au-delà des limites qu'elles nous assignent. Mais cela ferait l'objet d'un autre ouvrage.
Resumo:
Résumé : Introduction : l'ostéoporose est une maladie fréquente, invalidante, sous-diagnostiquée et sous-traitée, alors qu'il existe des évidences cliniques, densitométriques et biologiques de l'efficacité de la prévention secondaire. Matériel et méthode : dans cette étude, nous décrivons les habitudes de prescription de traitements en prévention secondaire dans les 6 mois qui suivent une fracture de fragilité et définissons les catégories de femmes recevant ou non un traitement, selon le type de fractures, les antécédents fracturaires et les données socio-démographiques. Il s'agit d'une étude suisse de cohorte, prospective de 7609 femmes de 70 ans et plus, suivies de 1998 à 2000. Deux groupes de patientes ont été analysés : celles avec un événement fracturaire durant le suivi (3 sous-groupes de fractures ont été considérés fractures vertébrales, fractures du radius distal et fractures de l'humérus proximal) et celles sans fractures durant le suivi (groupe contrôle). La détermination des événements fracturaires et l'instauration d'un traitement s'est faite par l'envoi aux patientes et à leurs médecins traitants d'un questionnaire structuré. Dans cette étude, le but primaire est de décrire les attitudes médicales de prévention secondaire, le but secondaire d'analyser les motifs dé décision thérapeutique (type de fracture, antécédents de fractures), alors que le but tertiaire cherche à caractériser les femmes non traitées. Résultats, discussion : 7354 femmes ont été incluses dans cette étude, 183 dans le groupe fracture et 7171 dans le groupe contrôle. Le suivi moyen a été de 21 mois. L'introduction d'un traitement est restée rare dans chaque catégorie de fracture et a été plus importante pour le sous-groupe avec fracture vertébrale (p<0.001). La seule donnée associée à l'adjonction d'un traitement a été la présence d'un antécédent anamnestique de fracture vertébrale. La description des attitudes thérapeutiques après une fracture de fragilité, a montré que. 44 % des femmes ne reçoivent aucun traitement en prévention secondaire. Seule la fracture vertébrale et les antécédents de fracture vertébrale entraînent une modification de l'attitude thérapeutique des médecins traitants mais de façon encore insuffisante puisque plus de 50 % des femmes avec une fracture de vertèbre n'ont aucun changement dans leur prise en charge. Les femmes non traitées ne différaient pas des autres sur un plan socio-démographique. Le nombre de patientes dans chaque sous-groupe est relativement faible ce qui limite !a puissance statistique de l'analyse. Les données consistent essentiellement en du « selfreporting » ce qui peut limiter la signification de celles-ci. Les résultats sont cependant suffisamment inquiétants pour que de nouvelles campagnes d'information soient lancées auprès des médecins de .premiers recours quant à la nécessité d'instaurer un traitement efficace lors de la survenue d'une fracture clinique ou radiologique chez une femme en post-ménopause.