282 resultados para Dynamique de ponte
Resumo:
OBJECTIVES: Women with a history of preeclampsia (PE) are at increased risk of long term cardiovascular and end-stage renal diseases. However, follow up of preeclamptic women is often omitted, mainly due to a weakness of knowledge of maternal caregivers and lack of comprehensive guidelines. The aim of this study was to define the prevalence of albuminuria, high blood pressure, and renal dysfunction 6 weeks after a preeclampsia. METHODS: This is a prospective case-control study comparing women presenting with preeclampsia to an unmatched control group of women with no hypertensive disorders of pregnancy. A complete medical assessment was performed at 6 weeks post-partum. Recruitment started in June 2010. RESULTS: 324 women were included in the PE group and 50 in the control one. Characteristics of both groups and results of the medical work-up at 6 weeks post-partum are presented in Table 1. Women with preeclampsia presented with a higher BMI, higher prevalence of office high blood pressure, pathological albuminuria and renal hyper-filtration than women in the control group. CONCLUSIONS: Prevalence of post-partum hypertension, and renal dysfunction is higher in women with PE than in uncomplicated pregnancies. Systematic assessment of renal risk factors 6 weeks after preeclampsia allows identification of high-risk women and early implementation of preventive and therapeutic strategies. DISCLOSURES: A. Ditisheim: None. B. Ponte: None. G. Wuerzner: None. M. Burnier: None. M. Boulvain: None. A. Pechère-Bertschi: None.
Resumo:
Fondée sur un corpus d'écrivains-voyageurs qui sont symptomatiques des changements importants affectant la question de l'espace dans la première moitié du XXème siècle, cette étude tire profit de la grande polyvalence de la problématique du paysage pour proposer un véritable dialogue interdisciplinaire entre littérature et philosophie. Cette perspective est largement favorisée par les écrivains eux-mêmes qui ont indiscutablement lié leur entreprise poétique à des enjeux épistémiques recoupant les préoccupations des scientifiques, médecins, géographes ou philosophes de leur temps. Un certain nombre d'interrogations nous sont apparues caractéristiques de cette période de l'histoire des voyages. Victor Segalen, Blaise Cendrars et Henri Michaux ont été particulièrement sensibles à cette angoisse d'époque liée à l'amenuisement du monde, c'est-à- dire au raccourcissement des distances entre continents suite aux développements des moyens de transport et la perte des « espaces blancs » de la carte, conséquence directe des entreprises exploratrices du XIXème siècle. A la déréliction qui s'empare du voyageur moderne face à la disparition des zones inconnues s'est ajouté l'effroi provoqué par la seconde loi thermodynamique du biologiste allemand Ernst Haeckel, qui, avec sa théorie de l'entropie, a fait craindre à plusieurs générations que la matière de l'univers tendrait vers une simplification toujours plus grande, et que le globe terrestre, à l'image du cosmos, ressemblerait peu ou prou à un immense magma de glace. Il est remarquable de constater à quel point ces trois auteurs ont développé une sorte d'outillage conceptuel commun propre à diagnostiquer cette crise et à la résoudre en élaborant une nouvelle manière de se rapporter à l'espace et de décrire le paysage. Ce nouveau paradigme qui modélise un autre type de relation à l'extérieur est solidaire de courants de pensée post-rationalistes qui de Nietzsche à Gilles Deleuze, en passant par Bergson et la phénoménologie, ont conduit à un démantèlement de la conception cartésienne de la conscience dans son rapport à l'étendue. Aux croisements de la philosophie et de la littérature se construit durant la première moitié du XXème siècle un nouveau modèle de représentation du paysage qui passe par l'élaboration de la ligne libre. Celle-ci décrit une manière de dire le réel qui ne consiste pas à en reproduire les composantes de façon fidèle, mais à tracer le mouvement énergétique par lequel le corps se rapporte à l'espace de manière dynamique et variée. Proche du terme de diagramme, exploité par Deleuze et relayé par le géographe Jean-Marc Besse, il consiste en un schème du réel qui s'élabore en cours d'expérience et ouvre sur une réalité à venir. De ce point de vue, la ligne libre définit une manière de se rapporter au réel qui remet en question les théories paysagères fondées sur Vartialisation. En prenant appui sur cette proximité d'intérêt entre une certaine philosophie et la littérature de voyage de la première moitié du XXème siècle, cette étude montre que la construction de ce nouveau paradigme permet de mettre en évidence un type de transfert peu conventionnel entre ces deux champs des sciences humaines. Car Segalen, Cendrars et Michaux n'ont pas vraiment repris aux philosophes des concepts, des syllogismes ou même des pensées, mais se sont approprié une figure dont ils ont libéré l'imaginaire sémantique. En lecteurs émerveillés de Nietzsche, ils ont surtout vu dans le voyageur Zarathoustra et dans sa manière de se déplacer dans le paysage, une façon stratégique de répondre à la crise de l'entropie. Mais si Zarathoustra incarne le mouvement de la ligne libre en lui conférant une valeur épistémique, il constitue également une figure imprégnée par la littérature de voyage et le genre de l'aventure. De ce point de vue, il apparaît que le développement de ce paradigme est redevable aussi bien de la philosophie que de la littérature de voyage et qu'une brève histoire de son élaboration révèle qu'une sémantique viatique accompagne la conception philosophique de cette ligne libre auprès des philosophes qui s'en approprient le modèle (Nietzsche, Bergson, Husserl, Heidegger, Merleau-Ponty, Deleuze).
Resumo:
Abstract Working memory has been defined as the ability to maintain and manipulate on-line a limited amount of information. A large number of studies have investigated visuospatial working memory in schizophrenia. However, today, the available data concerning the functioning of these processes in schizophrenia are largely controversial. These inconclusive results are due to incomplete knowledge on processes involved in visuospatial working memory tasks. Recent studies suggest that visuospatial working memory processes may be divided into an active monitoring and a storing components. Furthermore, it has been shown that visuospatial working memory processes are strongly interconnected with early encoding processes (perceptual organization). In our view, the two working memory components, and the relationship that they entertain with early encoding processes, may be investigated using dynamic and static visuospatial stimuli in a working memory paradigm. In this thesis we aim at comparing dynamic and static visuospatial working memory processes in patients with schizophrenia and first-episode of psychosis patients. This analysis may clarify the functioning of visuospatial working memory and the dysfunction of these processes in schizophrenia. Our results are in accord with the hypothesis of two visuospatial working memory subcomponents. Dynamic, rather than static, stimuli are strongly involved in the visuospatial working memory encoding process. Indeed, the results are congruent with the idea that static stimuli may be strongly encoded by parallel perceptual organization processes. Patients with schizophrenia show important deficits in both working memory and perceptual organization encoding processes. In contrast, perceptual organization processes seem spared in firstepisodepsychosis patients. Considering our findings, we propose a model to explain the degradation of visuospatial processes involved in a working memory task during schizophrenia. Résumé: La mémoire de travail est définie comme la capacité à maintenir et manipuler « on-line » un nombre limité d'informations pour une courte période de temps (de l'ordre de quelques dizaines de secondes). Un grand nombre d'études a montré que les processus de mémoire de travail visuo spatiale peuvent être affectés dans la schizophrénie. Malgré cela, les données concernant les déficits de ces processus chez des patients qui souffrent de schizophrénie sont contradictoires. La difficulté de comprendre la nature des déficits de mémoire de travail visuospatiale dans la schizophrénie est en grande partie imputable aux connaissances encore lacunaires sur le fonctionnement de ces processus dans un état non pathologique. Dans cette thèse, on cherche à élucider le fonctionnement des processus de mémoire de travail visuospatiale. Pour cela, on a créé un nouveau paradigme qui sollicite ce type de mémoire. Dans ce paradigme, on présente des stimuli dynamiques et statiques. Après un court délai, le sujet doit reconnaître le stimulus qu'il a visualisé parmi six possibilités. Sur la base de récentes études neurophysiologiques, neuroanatomiques et psychologiques, nous avançons l'hypothèse que l'encodage de stimuli dynamiques et statiques repose sur deux processus distincts de mémoire de travail : un processus d'organisation qui manipule les informations sensorielles et un processus dé stockage qui est responsable du maintien de l'information au cours de la manipulation. Ces processus sont en relation directe avec les processus responsables d'une organisation de l'information à un niveau précoce du traitement visuel. Les études présentées dans cette thèse ont pour but de vérifier la pertinence de la distinction entre les processus de mémoire de travail visuospatiale, selon la modalité «dynamique » ou «statique ». L'investigation des processus dynamiques et statiques de mémoire de travail dans la schizophrénie présente deux avantages principaux. Premièrement, 1a pathologie pourrait permettre de mettre en évidence, par les dysfonctionnements qu'elle présente, la pertinence des hypothèses sur le fonctionnement des processus de mémoire de travail visuospatiale et de leur interaction avec les processus sensoriels. Deuxièmement, ces investigations rendent possible une analyse des dysfonctions des différents processus dans la schizophrénie. Dans cette thèse, on analyse aussi les processus de mémoire de travail «dynamiques » et «statiques » chez des sujets dans une phase initiale de la psychose. Les résultats de cette étude permettent de faire une comparaison avec ceux obtenus avec des patients qui souffrent de schizophrénie. Cette comparaison peut apporter des informations intéressantes sur l'évolution des dysfonctions dans les processus impliqués dans les fonctions de mémoire de travail visuospatiale au cours de la schizophrénie. Les résultats obtenus dans les différentes études sont cohérents avec l'hypothèse d'une implication différente des processus d'organisation de la mémoire de travail sur des stimuli dynamiques et statiques. -Nos résultats montrent que les processus de mémoire de travail responsables de l'organisation (manipulation active) des informations est déficitaire dans la schizophrénie. Ce déficit semble jouer un rôle de premier plan dans la dégradation des processus visuospatiaux au cours de la schizophrénie.
Resumo:
INTRODUCTION: Auscultatory nonmercury manual devices seem good alternatives for the mercury sphygmomanometers in the clinic and for research settings, but individual internal validation of each device is time-consuming. The aim of this study was to validate a new technique capable of testing two devices simultaneously, based on the International protocol of the European Society of Hypertension. METHODS: The concept of the new technique is to measure blood pressure alternatively by two observers using a mercury sphygmomanometer and by two observers using the A&D UM-101 and Accoson Greenlight 300 devices, connected by Y-tube to obtain simultaneous readings with both nonmercury devices. Thirty-three participants were enrolled (mean age 47.2±14.0 years). Nine sequential blood pressure measurements were performed for each participant. RESULTS: Both devices passed phase 1 using 15 participants. In phase 2.1 (n=33), on a maximum of 99 measurements, the Accoson device produced 81/95/99 measurements within 5/10/15 mmHg for systolic blood pressure (SBP) and 87/98/99 for diastolic blood pressure (DBP). The A&D device produced 86/96/99 for SBP and 94/99/99 for DBP. In phase 2.2 (n=33), 30 participants had at least 2 out of 3 SBP obtained with Accoson device within 5 mmHg of the mercury device, as compared with 29 of 33 participants with the A&D device. For DBP, this was 33 of 33 participants for both devices. CONCLUSION: Both the nonmercury devices passed the International protocol. The new technique of simultaneous device testing using a Y-tube represents a time saving application of the International protocol.
Resumo:
Résumé La théorie de l'autocatégorisation est une théorie de psychologie sociale qui porte sur la relation entre l'individu et le groupe. Elle explique le comportement de groupe par la conception de soi et des autres en tant que membres de catégories sociales, et par l'attribution aux individus des caractéristiques prototypiques de ces catégories. Il s'agit donc d'une théorie de l'individu qui est censée expliquer des phénomènes collectifs. Les situations dans lesquelles un grand nombre d'individus interagissent de manière non triviale génèrent typiquement des comportements collectifs complexes qui sont difficiles à prévoir sur la base des comportements individuels. La simulation informatique de tels systèmes est un moyen fiable d'explorer de manière systématique la dynamique du comportement collectif en fonction des spécifications individuelles. Dans cette thèse, nous présentons un modèle formel d'une partie de la théorie de l'autocatégorisation appelée principe du métacontraste. À partir de la distribution d'un ensemble d'individus sur une ou plusieurs dimensions comparatives, le modèle génère les catégories et les prototypes associés. Nous montrons que le modèle se comporte de manière cohérente par rapport à la théorie et est capable de répliquer des données expérimentales concernant divers phénomènes de groupe, dont par exemple la polarisation. De plus, il permet de décrire systématiquement les prédictions de la théorie dont il dérive, notamment dans des situations nouvelles. Au niveau collectif, plusieurs dynamiques peuvent être observées, dont la convergence vers le consensus, vers une fragmentation ou vers l'émergence d'attitudes extrêmes. Nous étudions également l'effet du réseau social sur la dynamique et montrons qu'à l'exception de la vitesse de convergence, qui augmente lorsque les distances moyennes du réseau diminuent, les types de convergences dépendent peu du réseau choisi. Nous constatons d'autre part que les individus qui se situent à la frontière des groupes (dans le réseau social ou spatialement) ont une influence déterminante sur l'issue de la dynamique. Le modèle peut par ailleurs être utilisé comme un algorithme de classification automatique. Il identifie des prototypes autour desquels sont construits des groupes. Les prototypes sont positionnés de sorte à accentuer les caractéristiques typiques des groupes, et ne sont pas forcément centraux. Enfin, si l'on considère l'ensemble des pixels d'une image comme des individus dans un espace de couleur tridimensionnel, le modèle fournit un filtre qui permet d'atténuer du bruit, d'aider à la détection d'objets et de simuler des biais de perception comme l'induction chromatique. Abstract Self-categorization theory is a social psychology theory dealing with the relation between the individual and the group. It explains group behaviour through self- and others' conception as members of social categories, and through the attribution of the proto-typical categories' characteristics to the individuals. Hence, it is a theory of the individual that intends to explain collective phenomena. Situations involving a large number of non-trivially interacting individuals typically generate complex collective behaviours, which are difficult to anticipate on the basis of individual behaviour. Computer simulation of such systems is a reliable way of systematically exploring the dynamics of the collective behaviour depending on individual specifications. In this thesis, we present a formal model of a part of self-categorization theory named metacontrast principle. Given the distribution of a set of individuals on one or several comparison dimensions, the model generates categories and their associated prototypes. We show that the model behaves coherently with respect to the theory and is able to replicate experimental data concerning various group phenomena, for example polarization. Moreover, it allows to systematically describe the predictions of the theory from which it is derived, specially in unencountered situations. At the collective level, several dynamics can be observed, among which convergence towards consensus, towards frag-mentation or towards the emergence of extreme attitudes. We also study the effect of the social network on the dynamics and show that, except for the convergence speed which raises as the mean distances on the network decrease, the observed convergence types do not depend much on the chosen network. We further note that individuals located at the border of the groups (whether in the social network or spatially) have a decisive influence on the dynamics' issue. In addition, the model can be used as an automatic classification algorithm. It identifies prototypes around which groups are built. Prototypes are positioned such as to accentuate groups' typical characteristics and are not necessarily central. Finally, if we consider the set of pixels of an image as individuals in a three-dimensional color space, the model provides a filter that allows to lessen noise, to help detecting objects and to simulate perception biases such as chromatic induction.
Resumo:
The proportion of population living in or around cites is more important than ever. Urban sprawl and car dependence have taken over the pedestrian-friendly compact city. Environmental problems like air pollution, land waste or noise, and health problems are the result of this still continuing process. The urban planners have to find solutions to these complex problems, and at the same time insure the economic performance of the city and its surroundings. At the same time, an increasing quantity of socio-economic and environmental data is acquired. In order to get a better understanding of the processes and phenomena taking place in the complex urban environment, these data should be analysed. Numerous methods for modelling and simulating such a system exist and are still under development and can be exploited by the urban geographers for improving our understanding of the urban metabolism. Modern and innovative visualisation techniques help in communicating the results of such models and simulations. This thesis covers several methods for analysis, modelling, simulation and visualisation of problems related to urban geography. The analysis of high dimensional socio-economic data using artificial neural network techniques, especially self-organising maps, is showed using two examples at different scales. The problem of spatiotemporal modelling and data representation is treated and some possible solutions are shown. The simulation of urban dynamics and more specifically the traffic due to commuting to work is illustrated using multi-agent micro-simulation techniques. A section on visualisation methods presents cartograms for transforming the geographic space into a feature space, and the distance circle map, a centre-based map representation particularly useful for urban agglomerations. Some issues on the importance of scale in urban analysis and clustering of urban phenomena are exposed. A new approach on how to define urban areas at different scales is developed, and the link with percolation theory established. Fractal statistics, especially the lacunarity measure, and scale laws are used for characterising urban clusters. In a last section, the population evolution is modelled using a model close to the well-established gravity model. The work covers quite a wide range of methods useful in urban geography. Methods should still be developed further and at the same time find their way into the daily work and decision process of urban planners. La part de personnes vivant dans une région urbaine est plus élevé que jamais et continue à croître. L'étalement urbain et la dépendance automobile ont supplanté la ville compacte adaptée aux piétons. La pollution de l'air, le gaspillage du sol, le bruit, et des problèmes de santé pour les habitants en sont la conséquence. Les urbanistes doivent trouver, ensemble avec toute la société, des solutions à ces problèmes complexes. En même temps, il faut assurer la performance économique de la ville et de sa région. Actuellement, une quantité grandissante de données socio-économiques et environnementales est récoltée. Pour mieux comprendre les processus et phénomènes du système complexe "ville", ces données doivent être traitées et analysées. Des nombreuses méthodes pour modéliser et simuler un tel système existent et sont continuellement en développement. Elles peuvent être exploitées par le géographe urbain pour améliorer sa connaissance du métabolisme urbain. Des techniques modernes et innovatrices de visualisation aident dans la communication des résultats de tels modèles et simulations. Cette thèse décrit plusieurs méthodes permettant d'analyser, de modéliser, de simuler et de visualiser des phénomènes urbains. L'analyse de données socio-économiques à très haute dimension à l'aide de réseaux de neurones artificiels, notamment des cartes auto-organisatrices, est montré à travers deux exemples aux échelles différentes. Le problème de modélisation spatio-temporelle et de représentation des données est discuté et quelques ébauches de solutions esquissées. La simulation de la dynamique urbaine, et plus spécifiquement du trafic automobile engendré par les pendulaires est illustrée à l'aide d'une simulation multi-agents. Une section sur les méthodes de visualisation montre des cartes en anamorphoses permettant de transformer l'espace géographique en espace fonctionnel. Un autre type de carte, les cartes circulaires, est présenté. Ce type de carte est particulièrement utile pour les agglomérations urbaines. Quelques questions liées à l'importance de l'échelle dans l'analyse urbaine sont également discutées. Une nouvelle approche pour définir des clusters urbains à des échelles différentes est développée, et le lien avec la théorie de la percolation est établi. Des statistiques fractales, notamment la lacunarité, sont utilisées pour caractériser ces clusters urbains. L'évolution de la population est modélisée à l'aide d'un modèle proche du modèle gravitaire bien connu. Le travail couvre une large panoplie de méthodes utiles en géographie urbaine. Toutefois, il est toujours nécessaire de développer plus loin ces méthodes et en même temps, elles doivent trouver leur chemin dans la vie quotidienne des urbanistes et planificateurs.
Resumo:
Au vu de l'augmentation de la prévalence de l'insuffisance rénale chronique (IRC), une détection précoce a été proposée. Certaines organisations de santé proposent des mesures de détection précoce (par exemple : taux de filtration glomérulaire). L'efficacité du dépistage de l'IRC n'est cependant pas connue puisqu'aucune étude randomisée contrôlée n'a été conduite. Si le test de dépistage de l'IRC est simple et peu onéreux, un dépistage n'est justifié que s'il améliore le pronostic par rapport à l'absence de dépistage avec un rapport risques-bénéfices favorable et un rapport coût-efficacité acceptable. Sur la base d'études observationnelles et de modèles de rapport coût-efficacité, le dépistage de l'IRC doit être proposé chez les patients hypertendus et/ou diabétiques mais pas dans la population générale. [Abstract] Given the increasing prevalence of chronic kidney disease (CKD), early detection has been proposed. Some organizations recommend CKD screening. Yet, the efficacy of CKD screening is unknown given the absence of randomized controlled trial conducted so far. While CKD screening tests (e.g., glomerular filtration rate) are simple and inexpensive, CKD screening can only be justified if it reduces CKD-related mortality and/or CKD-related morbidity compared to no screening. In addition, CKD screening must provide more benefits than risks to the participants and must be cost-effective. Based on observational studies and cost-effectiveness models, CKD screening has to be proposed to high risk population (patients with hypertension and/or diabetes) but not to the general population.
Resumo:
Summary Ecotones are sensitive to change because they contain high numbers of species living at the margin of their environmental tolerance. This is equally true of tree-lines, which are determined by attitudinal or latitudinal temperature gradients. In the current context of climate change, they are expected to undergo modifications in position, tree biomass and possibly species composition. Attitudinal and latitudinal tree-lines differ mainly in the steepness of the underlying temperature gradient: distances are larger at latitudinal tree-lines, which could have an impact on the ability of tree species to migrate in response to climate change. Aside from temperature, tree-lines are also affected on a more local level by pressure from human activities. These are also changing as a consequence of modifications in our societies and may interact with the effects of climate change. Forest dynamics models are often used for climate change simulations because of their mechanistic processes. The spatially-explicit model TreeMig was used as a base to develop a model specifically tuned for the northern European and Alpine tree-line ecotones. For the latter, a module for land-use change processes was also added. The temperature response parameters for the species in the model were first calibrated by means of tree-ring data from various species and sites at both tree-lines. This improved the growth response function in the model, but also lead to the conclusion that regeneration is probably more important than growth for controlling tree-line position and species' distributions. The second step was to implement the module for abandonment of agricultural land in the Alps, based on an existing spatial statistical model. The sensitivity of its most important variables was tested and the model's performance compared to other modelling approaches. The probability that agricultural land would be abandoned was strongly influenced by the distance from the nearest forest and the slope, bath of which are proxies for cultivation costs. When applied to a case study area, the resulting model, named TreeMig-LAb, gave the most realistic results. These were consistent with observed consequences of land-abandonment such as the expansion of the existing forest and closing up of gaps. This new model was then applied in two case study areas, one in the Swiss Alps and one in Finnish Lapland, under a variety of climate change scenarios. These were based on forecasts of temperature change over the next century by the IPCC and the HadCM3 climate model (ΔT: +1.3, +3.5 and +5.6 °C) and included a post-change stabilisation period of 300 years. The results showed radical disruptions at both tree-lines. With the most conservative climate change scenario, species' distributions simply shifted, but it took several centuries reach a new equilibrium. With the more extreme scenarios, some species disappeared from our study areas (e.g. Pinus cembra in the Alps) or dwindled to very low numbers, as they ran out of land into which they could migrate. The most striking result was the lag in the response of most species, independently from the climate change scenario or tree-line type considered. Finally, a statistical model of the effect of reindeer (Rangifer tarandus) browsing on the growth of Pinus sylvestris was developed, as a first step towards implementing human impacts at the boreal tree-line. The expected effect was an indirect one, as reindeer deplete the ground lichen cover, thought to protect the trees against adverse climate conditions. The model showed a small but significant effect of browsing, but as the link with the underlying climate variables was unclear and the model was not spatial, it was not usable as such. Developing the TreeMig-LAb model allowed to: a) establish a method for deriving species' parameters for the growth equation from tree-rings, b) highlight the importance of regeneration in determining tree-line position and species' distributions and c) improve the integration of social sciences into landscape modelling. Applying the model at the Alpine and northern European tree-lines under different climate change scenarios showed that with most forecasted levels of temperature increase, tree-lines would suffer major disruptions, with shifts in distributions and potential extinction of some tree-line species. However, these responses showed strong lags, so these effects would not become apparent before decades and could take centuries to stabilise. Résumé Les écotones son sensibles au changement en raison du nombre élevé d'espèces qui y vivent à la limite de leur tolérance environnementale. Ceci s'applique également aux limites des arbres définies par les gradients de température altitudinaux et latitudinaux. Dans le contexte actuel de changement climatique, on s'attend à ce qu'elles subissent des modifications de leur position, de la biomasse des arbres et éventuellement des essences qui les composent. Les limites altitudinales et latitudinales diffèrent essentiellement au niveau de la pente des gradients de température qui les sous-tendent les distance sont plus grandes pour les limites latitudinales, ce qui pourrait avoir un impact sur la capacité des espèces à migrer en réponse au changement climatique. En sus de la température, la limite des arbres est aussi influencée à un niveau plus local par les pressions dues aux activités humaines. Celles-ci sont aussi en mutation suite aux changements dans nos sociétés et peuvent interagir avec les effets du changement climatique. Les modèles de dynamique forestière sont souvent utilisés pour simuler les effets du changement climatique, car ils sont basés sur la modélisation de processus. Le modèle spatialement explicite TreeMig a été utilisé comme base pour développer un modèle spécialement adapté pour la limite des arbres en Europe du Nord et dans les Alpes. Pour cette dernière, un module servant à simuler des changements d'utilisation du sol a également été ajouté. Tout d'abord, les paramètres de la courbe de réponse à la température pour les espèces inclues dans le modèle ont été calibrées au moyen de données dendrochronologiques pour diverses espèces et divers sites des deux écotones. Ceci a permis d'améliorer la courbe de croissance du modèle, mais a également permis de conclure que la régénération est probablement plus déterminante que la croissance en ce qui concerne la position de la limite des arbres et la distribution des espèces. La seconde étape consistait à implémenter le module d'abandon du terrain agricole dans les Alpes, basé sur un modèle statistique spatial existant. La sensibilité des variables les plus importantes du modèle a été testée et la performance de ce dernier comparée à d'autres approches de modélisation. La probabilité qu'un terrain soit abandonné était fortement influencée par la distance à la forêt la plus proche et par la pente, qui sont tous deux des substituts pour les coûts liés à la mise en culture. Lors de l'application en situation réelle, le nouveau modèle, baptisé TreeMig-LAb, a donné les résultats les plus réalistes. Ceux-ci étaient comparables aux conséquences déjà observées de l'abandon de terrains agricoles, telles que l'expansion des forêts existantes et la fermeture des clairières. Ce nouveau modèle a ensuite été mis en application dans deux zones d'étude, l'une dans les Alpes suisses et l'autre en Laponie finlandaise, avec divers scénarios de changement climatique. Ces derniers étaient basés sur les prévisions de changement de température pour le siècle prochain établies par l'IPCC et le modèle climatique HadCM3 (ΔT: +1.3, +3.5 et +5.6 °C) et comprenaient une période de stabilisation post-changement climatique de 300 ans. Les résultats ont montré des perturbations majeures dans les deux types de limites de arbres. Avec le scénario de changement climatique le moins extrême, les distributions respectives des espèces ont subi un simple glissement, mais il a fallu plusieurs siècles pour qu'elles atteignent un nouvel équilibre. Avec les autres scénarios, certaines espèces ont disparu de la zone d'étude (p. ex. Pinus cembra dans les Alpes) ou ont vu leur population diminuer parce qu'il n'y avait plus assez de terrains disponibles dans lesquels elles puissent migrer. Le résultat le plus frappant a été le temps de latence dans la réponse de la plupart des espèces, indépendamment du scénario de changement climatique utilisé ou du type de limite des arbres. Finalement, un modèle statistique de l'effet de l'abroutissement par les rennes (Rangifer tarandus) sur la croissance de Pinus sylvestris a été développé, comme première étape en vue de l'implémentation des impacts humains sur la limite boréale des arbres. L'effet attendu était indirect, puisque les rennes réduisent la couverture de lichen sur le sol, dont on attend un effet protecteur contre les rigueurs climatiques. Le modèle a mis en évidence un effet modeste mais significatif, mais étant donné que le lien avec les variables climatiques sous jacentes était peu clair et que le modèle n'était pas appliqué dans l'espace, il n'était pas utilisable tel quel. Le développement du modèle TreeMig-LAb a permis : a) d'établir une méthode pour déduire les paramètres spécifiques de l'équation de croissance ä partir de données dendrochronologiques, b) de mettre en évidence l'importance de la régénération dans la position de la limite des arbres et la distribution des espèces et c) d'améliorer l'intégration des sciences sociales dans les modèles de paysage. L'application du modèle aux limites alpines et nord-européennes des arbres sous différents scénarios de changement climatique a montré qu'avec la plupart des niveaux d'augmentation de température prévus, la limite des arbres subirait des perturbations majeures, avec des glissements d'aires de répartition et l'extinction potentielle de certaines espèces. Cependant, ces réponses ont montré des temps de latence importants, si bien que ces effets ne seraient pas visibles avant des décennies et pourraient mettre plusieurs siècles à se stabiliser.
Resumo:
Si la féminisation du corps médical est désormais un phénomène massif dans tous les pays occidentaux, elle suscite des analyses quelque peu contradictoires. La plupart des études oscillent entre une posture « universaliste », supposant que les femmes médecins adopteront, à terme, les mêmes pratiques professionnelles que les générations précédentes, composées essentiellement d'hommes et une perspective d'inspiration « essentialiste », mettant largement l'accent sur les « spécificités » de l'exercice médical au féminin. Ici, nous montrons que les femmes médecins tendent effectivement à adopter des pratiques spécifiques, notamment en matière de gestion de l'interface vie familiale et vie professionnelle. Toutefois, ces soi-disant « spécificités féminines » sont de plus en plus souvent adoptées par des médecins hommes aussi. En effet, à partir du moment où ces hommes se trouvent en couple avec des femmes diplômées qui tiennent à rentabiliser leurs études sur le marché de l'emploi, il leur est tout aussi difficile de se conformer aux principes de « l'ethos » de la disponibilité permanente à l'égard des patients qui a longtemps prévalu dans cette profession en France. Si les hommes continuent de dominer les échelons supérieurs de la profession, ils n'échappent pas pour autant aux exigences de modification de leurs rapports à l'exercice médical et à la sphère domestique et familiale. L'analyse des dynamiques professionnelles exige donc une attention particulière à la dynamique du genre comme principe d'organisation de l'exercice médical
Resumo:
La notion d'intersubjectivité est au coeur des débats contemporains dans le champ de la psychologie. L'intersubjectivité traverse en effet les différentes approches de la psychologie, des neurosciences à la psychologie sociale, des perspectives développementales aux approches psychoaffectives de la personnalité, des contextes de l'apprentissage à ceux du soin. Cet ouvrage collectif, premier volume de la collection Actualités psychologiques, se propose de faire le point sur cette notion et d'apporter des pistes actuelles de compréhension aux enjeux de la place de l'autre et de l'altérité dans la construction du sujet. Des chercheurs de renommée internationale, de Suisse et de différents pays européens, apportent ici leur contribution, dans différents domaines de la psychologie, invitant au dialogue entre les modèles théoriques qui sous-tendent la notion d'intersubjectivité et entre les méthodologies qui permettent d'en appréhender la dynamique. Contribution exceptionnelle, cet ouvrage est à destination de tous, psychologues praticiens et professionnels de la relation, chercheurs et étudiants en psychologie ou dans des disciplines connexes. Il permet d'approcher l'intersubjectivité comme une notion tout à la fois familière et complexe, au service de la rencontre de l'autre.
Resumo:
Les instabilités engendrées par des gradients de densité interviennent dans une variété d'écoulements. Un exemple est celui de la séquestration géologique du dioxyde de carbone en milieux poreux. Ce gaz est injecté à haute pression dans des aquifères salines et profondes. La différence de densité entre la saumure saturée en CO2 dissous et la saumure environnante induit des courants favorables qui le transportent vers les couches géologiques profondes. Les gradients de densité peuvent aussi être la cause du transport indésirable de matières toxiques, ce qui peut éventuellement conduire à la pollution des sols et des eaux. La gamme d'échelles intervenant dans ce type de phénomènes est très large. Elle s'étend de l'échelle poreuse où les phénomènes de croissance des instabilités s'opèrent, jusqu'à l'échelle des aquifères à laquelle interviennent les phénomènes à temps long. Une reproduction fiable de la physique par la simulation numérique demeure donc un défi en raison du caractère multi-échelles aussi bien au niveau spatial et temporel de ces phénomènes. Il requiert donc le développement d'algorithmes performants et l'utilisation d'outils de calculs modernes. En conjugaison avec les méthodes de résolution itératives, les méthodes multi-échelles permettent de résoudre les grands systèmes d'équations algébriques de manière efficace. Ces méthodes ont été introduites comme méthodes d'upscaling et de downscaling pour la simulation d'écoulements en milieux poreux afin de traiter de fortes hétérogénéités du champ de perméabilité. Le principe repose sur l'utilisation parallèle de deux maillages, le premier est choisi en fonction de la résolution du champ de perméabilité (grille fine), alors que le second (grille grossière) est utilisé pour approximer le problème fin à moindre coût. La qualité de la solution multi-échelles peut être améliorée de manière itérative pour empêcher des erreurs trop importantes si le champ de perméabilité est complexe. Les méthodes adaptatives qui restreignent les procédures de mise à jour aux régions à forts gradients permettent de limiter les coûts de calculs additionnels. Dans le cas d'instabilités induites par des gradients de densité, l'échelle des phénomènes varie au cours du temps. En conséquence, des méthodes multi-échelles adaptatives sont requises pour tenir compte de cette dynamique. L'objectif de cette thèse est de développer des algorithmes multi-échelles adaptatifs et efficaces pour la simulation des instabilités induites par des gradients de densité. Pour cela, nous nous basons sur la méthode des volumes finis multi-échelles (MsFV) qui offre l'avantage de résoudre les phénomènes de transport tout en conservant la masse de manière exacte. Dans la première partie, nous pouvons démontrer que les approximations de la méthode MsFV engendrent des phénomènes de digitation non-physiques dont la suppression requiert des opérations de correction itératives. Les coûts de calculs additionnels de ces opérations peuvent toutefois être compensés par des méthodes adaptatives. Nous proposons aussi l'utilisation de la méthode MsFV comme méthode de downscaling: la grille grossière étant utilisée dans les zones où l'écoulement est relativement homogène alors que la grille plus fine est utilisée pour résoudre les forts gradients. Dans la seconde partie, la méthode multi-échelle est étendue à un nombre arbitraire de niveaux. Nous prouvons que la méthode généralisée est performante pour la résolution de grands systèmes d'équations algébriques. Dans la dernière partie, nous focalisons notre étude sur les échelles qui déterminent l'évolution des instabilités engendrées par des gradients de densité. L'identification de la structure locale ainsi que globale de l'écoulement permet de procéder à un upscaling des instabilités à temps long alors que les structures à petite échelle sont conservées lors du déclenchement de l'instabilité. Les résultats présentés dans ce travail permettent d'étendre les connaissances des méthodes MsFV et offrent des formulations multi-échelles efficaces pour la simulation des instabilités engendrées par des gradients de densité. - Density-driven instabilities in porous media are of interest for a wide range of applications, for instance, for geological sequestration of CO2, during which CO2 is injected at high pressure into deep saline aquifers. Due to the density difference between the C02-saturated brine and the surrounding brine, a downward migration of CO2 into deeper regions, where the risk of leakage is reduced, takes place. Similarly, undesired spontaneous mobilization of potentially hazardous substances that might endanger groundwater quality can be triggered by density differences. Over the last years, these effects have been investigated with the help of numerical groundwater models. Major challenges in simulating density-driven instabilities arise from the different scales of interest involved, i.e., the scale at which instabilities are triggered and the aquifer scale over which long-term processes take place. An accurate numerical reproduction is possible, only if the finest scale is captured. For large aquifers, this leads to problems with a large number of unknowns. Advanced numerical methods are required to efficiently solve these problems with today's available computational resources. Beside efficient iterative solvers, multiscale methods are available to solve large numerical systems. Originally, multiscale methods have been developed as upscaling-downscaling techniques to resolve strong permeability contrasts. In this case, two static grids are used: one is chosen with respect to the resolution of the permeability field (fine grid); the other (coarse grid) is used to approximate the fine-scale problem at low computational costs. The quality of the multiscale solution can be iteratively improved to avoid large errors in case of complex permeability structures. Adaptive formulations, which restrict the iterative update to domains with large gradients, enable limiting the additional computational costs of the iterations. In case of density-driven instabilities, additional spatial scales appear which change with time. Flexible adaptive methods are required to account for these emerging dynamic scales. The objective of this work is to develop an adaptive multiscale formulation for the efficient and accurate simulation of density-driven instabilities. We consider the Multiscale Finite-Volume (MsFV) method, which is well suited for simulations including the solution of transport problems as it guarantees a conservative velocity field. In the first part of this thesis, we investigate the applicability of the standard MsFV method to density- driven flow problems. We demonstrate that approximations in MsFV may trigger unphysical fingers and iterative corrections are necessary. Adaptive formulations (e.g., limiting a refined solution to domains with large concentration gradients where fingers form) can be used to balance the extra costs. We also propose to use the MsFV method as downscaling technique: the coarse discretization is used in areas without significant change in the flow field whereas the problem is refined in the zones of interest. This enables accounting for the dynamic change in scales of density-driven instabilities. In the second part of the thesis the MsFV algorithm, which originally employs one coarse level, is extended to an arbitrary number of coarse levels. We prove that this keeps the MsFV method efficient for problems with a large number of unknowns. In the last part of this thesis, we focus on the scales that control the evolution of density fingers. The identification of local and global flow patterns allows a coarse description at late times while conserving fine-scale details during onset stage. Results presented in this work advance the understanding of the Multiscale Finite-Volume method and offer efficient dynamic multiscale formulations to simulate density-driven instabilities. - Les nappes phréatiques caractérisées par des structures poreuses et des fractures très perméables représentent un intérêt particulier pour les hydrogéologues et ingénieurs environnementaux. Dans ces milieux, une large variété d'écoulements peut être observée. Les plus communs sont le transport de contaminants par les eaux souterraines, le transport réactif ou l'écoulement simultané de plusieurs phases non miscibles, comme le pétrole et l'eau. L'échelle qui caractérise ces écoulements est définie par l'interaction de l'hétérogénéité géologique et des processus physiques. Un fluide au repos dans l'espace interstitiel d'un milieu poreux peut être déstabilisé par des gradients de densité. Ils peuvent être induits par des changements locaux de température ou par dissolution d'un composé chimique. Les instabilités engendrées par des gradients de densité revêtent un intérêt particulier puisque qu'elles peuvent éventuellement compromettre la qualité des eaux. Un exemple frappant est la salinisation de l'eau douce dans les nappes phréatiques par pénétration d'eau salée plus dense dans les régions profondes. Dans le cas des écoulements gouvernés par les gradients de densité, les échelles caractéristiques de l'écoulement s'étendent de l'échelle poreuse où les phénomènes de croissance des instabilités s'opèrent, jusqu'à l'échelle des aquifères sur laquelle interviennent les phénomènes à temps long. Etant donné que les investigations in-situ sont pratiquement impossibles, les modèles numériques sont utilisés pour prédire et évaluer les risques liés aux instabilités engendrées par les gradients de densité. Une description correcte de ces phénomènes repose sur la description de toutes les échelles de l'écoulement dont la gamme peut s'étendre sur huit à dix ordres de grandeur dans le cas de grands aquifères. Il en résulte des problèmes numériques de grande taille qui sont très couteux à résoudre. Des schémas numériques sophistiqués sont donc nécessaires pour effectuer des simulations précises d'instabilités hydro-dynamiques à grande échelle. Dans ce travail, nous présentons différentes méthodes numériques qui permettent de simuler efficacement et avec précision les instabilités dues aux gradients de densité. Ces nouvelles méthodes sont basées sur les volumes finis multi-échelles. L'idée est de projeter le problème original à une échelle plus grande où il est moins coûteux à résoudre puis de relever la solution grossière vers l'échelle de départ. Cette technique est particulièrement adaptée pour résoudre des problèmes où une large gamme d'échelle intervient et évolue de manière spatio-temporelle. Ceci permet de réduire les coûts de calculs en limitant la description détaillée du problème aux régions qui contiennent un front de concentration mobile. Les aboutissements sont illustrés par la simulation de phénomènes tels que l'intrusion d'eau salée ou la séquestration de dioxyde de carbone.
Resumo:
This thesis is a compilation of projects to study sediment processes recharging debris flow channels. These works, conducted during my stay at the University of Lausanne, focus in the geological and morphological implications of torrent catchments to characterize debris supply, a fundamental element to predict debris flows. Other aspects of sediment dynamics are considered, e.g. the coupling headwaters - torrent, as well as the development of a modeling software that simulates sediment transfer in torrent systems. The sediment activity at Manival, an active torrent system of the northern French Alps, was investigated using terrestrial laser scanning and supplemented with geostructural investigations and a survey of sediment transferred in the main torrent. A full year of sediment flux could be observed, which coincided with two debris flows and several bedload transport events. This study revealed that both debris flows generated in the torrent and were preceded in time by recharge of material from the headwaters. Debris production occurred mostly during winter - early spring time and was caused by large slope failures. Sediment transfers were more puzzling, occurring almost exclusively in early spring subordinated to runoffconditions and in autumn during long rainfall. Intense rainstorms in summer did not affect debris storage that seems to rely on the stability of debris deposits. The morpho-geological implication in debris supply was evaluated using DEM and field surveys. A slope angle-based classification of topography could characterize the mode of debris production and transfer. A slope stability analysis derived from the structures in rock mass could assess susceptibility to failure. The modeled rockfall source areas included more than 97% of the recorded events and the sediment budgets appeared to be correlated to the density of potential slope failure. This work showed that the analysis of process-related terrain morphology and of susceptibility to slope failure document the sediment dynamics to quantitatively assess erosion zones leading to debris flow activity. The development of erosional landforms was evaluated by analyzing their geometry with the orientations of potential rock slope failure and with the direction of the maximum joint frequency. Structure in rock mass, but in particular wedge failure and the dominant discontinuities, appear as a first-order control of erosional mechanisms affecting bedrock- dominated catchment. They represent some weaknesses that are exploited primarily by mass wasting processes and erosion, promoting not only the initiation of rock couloirs and gullies, but also their propagation. Incorporating the geological control in geomorphic processes contributes to better understand the landscape evolution of active catchments. A sediment flux algorithm was implemented in a sediment cascade model that discretizes the torrent catchment in channel reaches and individual process-response systems. Each conceptual element includes in simple manner geomorphological and sediment flux information derived from GIS complemented with field mapping. This tool enables to simulate sediment transfers in channels considering evolving debris supply and conveyance, and helps reducing the uncertainty inherent to sediment budget prediction in torrent systems. Cette thèse est un recueil de projets d'études des processus de recharges sédimentaires des chenaux torrentiels. Ces travaux, réalisés lorsque j'étais employé à l'Université de Lausanne, se concentrent sur les implications géologiques et morphologiques des bassins dans l'apport de sédiments, élément fondamental dans la prédiction de laves torrentielles. D'autres aspects de dynamique sédimentaire ont été abordés, p. ex. le couplage torrent - bassin, ainsi qu'un modèle de simulation du transfert sédimentaire en milieu torrentiel. L'activité sédimentaire du Manival, un système torrentiel actif des Alpes françaises, a été étudiée par relevés au laser scanner terrestre et complétée par une étude géostructurale ainsi qu'un suivi du transfert en sédiments du torrent. Une année de flux sédimentaire a pu être observée, coïncidant avec deux laves torrentielles et plusieurs phénomènes de charriages. Cette étude a révélé que les laves s'étaient générées dans le torrent et étaient précédées par une recharge de débris depuis les versants. La production de débris s'est passée principalement en l'hiver - début du printemps, causée par de grandes ruptures de pentes. Le transfert était plus étrange, se produisant presque exclusivement au début du printemps subordonné aux conditions d'écoulement et en automne lors de longues pluies. Les orages d'été n'affectèrent guère les dépôts, qui semblent dépendre de leur stabilité. Les implications morpho-géologiques dans l'apport sédimentaire ont été évaluées à l'aide de MNT et études de terrain. Une classification de la topographie basée sur la pente a permis de charactériser le mode de production et transfert. Une analyse de stabilité de pente à partir des structures de roches a permis d'estimer la susceptibilité à la rupture. Les zones sources modélisées comprennent plus de 97% des chutes de blocs observées et les bilans sédimentaires sont corrélés à la densité de ruptures potentielles. Ce travail d'analyses des morphologies du terrain et de susceptibilité à la rupture documente la dynamique sédimentaire pour l'estimation quantitative des zones érosives induisant l'activité torrentielle. Le développement des formes d'érosion a été évalué par l'analyse de leur géométrie avec celle des ruptures potentielles et avec la direction de la fréquence maximale des joints. Les structures de roches, mais en particulier les dièdres et les discontinuités dominantes, semblent être très influents dans les mécanismes d'érosion affectant les bassins rocheux. Ils représentent des zones de faiblesse exploitées en priorité par les processus de démantèlement et d'érosion, encourageant l'initiation de ravines et couloirs, mais aussi leur propagation. L'incorporation du control géologique dans les processus de surface contribue à une meilleure compréhension de l'évolution topographique de bassins actifs. Un algorithme de flux sédimentaire a été implémenté dans un modèle en cascade, lequel divise le bassin en biefs et en systèmes individuels répondant aux processus. Chaque unité inclut de façon simple les informations géomorpologiques et celles du flux sédimentaire dérivées à partir de SIG et de cartographie de terrain. Cet outil permet la simulation des transferts de masse dans les chenaux, considérants la variabilité de l'apport et son transport, et aide à réduire l'incertitude liée à la prédiction de bilans sédimentaires torrentiels. Ce travail vise très humblement d'éclairer quelques aspects de la dynamique sédimentaire en milieu torrentiel.
Resumo:
La recherche, faisant l'objet de la présente communication, interroge cette nouvelle répartition des rôles telle qu'elle a été théorisée dans les écrits gestionnaires portant sur la NGP. Nous investiguons donc la véracité de l'affirmation selon laquelle une gestion moderne, efficiente et efficace des affaires publiques implique une séparation plus stricte des sphères politiques et administratives. Autrement dit, est-ce que la mise en oeuvre des réformes managériales au sein des administrations cantonales de Suisse romande change effectivement la nature de la relation entre les hauts fonctionnaires et leurs ministres de tutelle ? Pour apporter un début de réponse à cette question, nous avons décidé de nous approcher de trois cantons romands qui se trouvent dans des dynamiques de réforme administrative d'ampleur différentes. Aussi, notre choix de terrain s'est porté sur le canton du Valais, qui est l'un des plus avancés en matière de NGP, sur le canton de Neuchâtel, qui se trouve dans une dynamique hybride puisque certains services administratifs ont adopté les principes de la contractualisation sur base volontaire et d'autres non, ansi que le canton du Jura qui n'a pas, pour l'instant, opté pour les nouveaux principes et outils de la NGP. La comparaison de ces trois entités, dont les trajectoires de modernisation diffèrent, nous permettra de constater ou non des différences d'appréciation dans la nature des relations politico-administratives des trois cantons. Si l'on se réfère à la description idéale-typique proposée par les tenants de la NGP, nous devrions constater d'importantes divergences. Enfin, il est à relever que cette recherche est pionnière en Suisse puisqu'aucune autre étude à ce jour ne s'est attelée à décrire ces changements relationnels, comme cela a été le cas dans la plupart des pays de l'OCDE.
Resumo:
«Sélective» et «statique» en théorie, la reprise de l'acquis de l'Union européenne dans le cadre de la voie bilatérale n'en donne pas moins lieu à une dynamique évolutive et expansive, exigeant un travail constant de coordination entre le droit européen, le droit bilatéral et le droit interne. Appelés à gérer ce travail de coordination, le juge et le législateur fédéraux ont traditionnellement opté pour un suivi «au cas par cas» de l'acquis, propre à préserver leur marge de manoeuvre ou à tout le moins l'image qu'il est politiquement convenable d'en donner. Cette approche pragmatique est toutefois inapte à maîtriser les dynamiques de la voie bilatérale. Elle est par ailleurs dommageable pour la cohérence de l'ordre juridique suisse tout comme pour sa lisibilité et prévisibilité, comportant de surcroît un risque accru de courts-circuits entre droit et politique. Les vicissitudes du régime du regroupement familial en Suisse, sous l'impulsion de la jurisprudence de la Cour de justice de l'Union européenne et notamment de l'arrêt Metock de 2007, fournissent une illustration exemplaire de ces propos. En retraçant les étapes de cette saga politico-judiciaire, le présent article met en exergue les choix stratégiques effectués par les autorités fédérales et, surtout, l'évolution de leur approche à l'égard du «suivi» du droit européen - évolution dont l'ATF 136 II 5, qui énonce la «nouvelle doctrine» du Tribunal fédéral en la matière, représente à ce jour l'aboutissement.