999 resultados para Évaluation des processus


Relevância:

90.00% 90.00%

Publicador:

Resumo:

Ce travail porte sur l'étude des processus et fonctions psychiques de la création littéraire et de l'écriture dans une perspective psychanalytique, à partir d'une méthodologie de recherche qualitative exploratoire. Un premier volet de la recherche s'attache à étudier les processus et fonctions psychiques dans la création littéraire à partir de six entretiens semi-structurés avec des écrivains romands publiés. Les entretiens sont analysés en profondeur à partir de la méthodologie qualitative Interpretative Phenomenological Analysis (Smith, Flowers & Larkin, 2009). Un second volet de la recherche étudie les processus et fonctions psychiques de l'écriture dans un atelier de groupe à médiation écriture prenant place dans un Centre de Jour pour adultes, à partir de l'élaboration de deux cas. L'articulation des analyses de ces expériences d'écriture dans les deux contextes étudiés permet de mettre en évidence des enjeux de continuité/discontinuité dans le passage du premier mouvement créateur de l'écriture - le « miroir-papier » - vers le mouvement de la publication/lecture - le « miroir-lecteur ». Ces enjeux de partage invitent à penser le travail créateur de l'écriture à partir de la notion de « Moi- peau » (Anzieu, 1995) et à préciser cinq fonctions psychiques de l'écriture : transformation ; protection ; échange ; réassurance narcissique ; partage. Un accent particulier est porté sur la fonction de protection, dans la tension qu'elle entretient avec celle de transformation, au travers de la mise en évidence de six formes d'enveloppes d'écriture protectrice. Finalement, les analyses mettent en évidence la manière dont cette tension entre un investissement défensif de l'écriture et un investissement de transformation se déploie par des voies singulières en vue d'une tentative de résolution du conflit subjectif interne entre les exigences du « public intérieur » (De M'Uzan, 1964) et la rencontre avec l'objet réel. Ces pistes d'analyses permettent de préciser les modalités de contribution de l'écriture aux processus de symbolisation et d'enrichir la pratique du champ des médiations thérapeutiques de repères d'appréciation clinique. - Based on an exploratory qualitative research methodology, this work focuses on the psychical processes and functions of literary creation and writing from a psychoanalytic perspective. The first part of the research investigates psychical processes and functions in creative writing through the analysis of six semi-structured interviews with published Swiss writers. The interviews are analyzed according to the exploratory qualitative methodology Interpretative Phenomenological Analysis (Smith, Flowers & Larkin, 2009). The second area of research examines the processes of writing in the context of an art-therapy writing group that took place in an adult day center. The observations lead to the elaboration of two case studies. The joint analysis of these writing experiences highlights issues of continuity/discontinuity in passing from the first creative writing movement - the « mirror-paper » - to the final publication/reading of the work - the «mirror-reader». These issues enable us to understand the creative writing processes from the concept of the « skin-ego » (Anzieu, 1995). Five functions of writing are proposed: transformation, protection, exchange, narcissistic reassurance, and sharing. An emphasis on the tension between the protection and the transformation functions is highlighted through the identification of six forms of protective writing psychical envelopes. Finally, the analysis shows how this tension between a defensive and a transformative investment in writing takes place in an attempt to resolve the internal conflict between the « inner audience » (De M'Uzan, 1964) and the encounter with the real object. This study clarifies the way creative writing can contribute to symbolization and can enrich clinical assessment in the field of art-therapy.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Une des percées les plus importantes dans la recherche sur les nanoparticules (ambiantes et manufacturées) a été la reconnaissance de leur potentiel à générer un stress oxydatif au niveau cellulaire. Dans cette optique, la mesure du potentiel oxydant intrinsèque des particules pourrait présenter une première étape dans l'évaluation des dangers. Ce projet méthodologique avait pour but de caractériser le potentiel oxydant de différentes nanoparticules « modèles » (ambiantes et manufacturées) au moyen de trois tests acellulaires (Test DTT, Test DCFH, Test oxymétrique) et d'utiliser ces résultats pour proposer une méthode de « référence ». D'autre part, nous avons appliqué la méthode sélectionnée à deux cas (exposition d'ouvriers à des particules de combustion et évaluation du danger de différentes nanoparticules manufacturées) afin de déterminer quels sont les paramètres qui influencent la mesure. Les résultats obtenus indiquent que la préparation des suspensions joue un rôle dans la mesure de ce potentiel oxydant. La réactivité dépend de la concentration du surfactant et de la durée de sonication. D'autre part, l'ordre de réactivité est dépendant de la métrique utilisée (masse ou surface) pour exprimer les résultats. Parmi les trois tests considérés, le test DTT pourrait être le plus utile pour effectuer une évaluation initiale du danger potentiel de nanoparticules ambiantes ou manufacturées. Ce test pourrait être intégré dans une stratégie d'évaluation de la toxicité des nanoparticules. Le test DTT correspond bien un test intégratif. Pour des situations de travail dans lesquelles les particules de combustion sont majoritaires, les paramètres physico-chimiques qui corrèlent de manière significative avec la réactivité DTT sont la surface des particules, les concentrations de carbone organique, la somme des concentrations de quatre quinones et les concentrations de fer et cuivre. Un nombre plus faible de corrélations est observé dans des ateliers mécaniques, suggérant que d'autres composés non mesurés interviennent également dans cette réactivité. Concernant les nanoparticules carbonées manufacturées, les fonctions chimiques de surface corrélées avec la réactivité DTT sont des fonctions acides et des fonctions inconnues pouvant dismuter. D'autre part, la solubilité et la possibilité de former des complexes avec le DTT sur la surface des NP manufacturées influencent le résultat de réactivité.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

L'utilisation efficace des systèmes géothermaux, la séquestration du CO2 pour limiter le changement climatique et la prévention de l'intrusion d'eau salée dans les aquifères costaux ne sont que quelques exemples qui démontrent notre besoin en technologies nouvelles pour suivre l'évolution des processus souterrains à partir de la surface. Un défi majeur est d'assurer la caractérisation et l'optimisation des performances de ces technologies à différentes échelles spatiales et temporelles. Les méthodes électromagnétiques (EM) d'ondes planes sont sensibles à la conductivité électrique du sous-sol et, par conséquent, à la conductivité électrique des fluides saturant la roche, à la présence de fractures connectées, à la température et aux matériaux géologiques. Ces méthodes sont régies par des équations valides sur de larges gammes de fréquences, permettant détudier de manières analogues des processus allant de quelques mètres sous la surface jusqu'à plusieurs kilomètres de profondeur. Néanmoins, ces méthodes sont soumises à une perte de résolution avec la profondeur à cause des propriétés diffusives du champ électromagnétique. Pour cette raison, l'estimation des modèles du sous-sol par ces méthodes doit prendre en compte des informations a priori afin de contraindre les modèles autant que possible et de permettre la quantification des incertitudes de ces modèles de façon appropriée. Dans la présente thèse, je développe des approches permettant la caractérisation statique et dynamique du sous-sol à l'aide d'ondes EM planes. Dans une première partie, je présente une approche déterministe permettant de réaliser des inversions répétées dans le temps (time-lapse) de données d'ondes EM planes en deux dimensions. Cette stratégie est basée sur l'incorporation dans l'algorithme d'informations a priori en fonction des changements du modèle de conductivité électrique attendus. Ceci est réalisé en intégrant une régularisation stochastique et des contraintes flexibles par rapport à la gamme des changements attendus en utilisant les multiplicateurs de Lagrange. J'utilise des normes différentes de la norme l2 pour contraindre la structure du modèle et obtenir des transitions abruptes entre les régions du model qui subissent des changements dans le temps et celles qui n'en subissent pas. Aussi, j'incorpore une stratégie afin d'éliminer les erreurs systématiques de données time-lapse. Ce travail a mis en évidence l'amélioration de la caractérisation des changements temporels par rapport aux approches classiques qui réalisent des inversions indépendantes à chaque pas de temps et comparent les modèles. Dans la seconde partie de cette thèse, j'adopte un formalisme bayésien et je teste la possibilité de quantifier les incertitudes sur les paramètres du modèle dans l'inversion d'ondes EM planes. Pour ce faire, je présente une stratégie d'inversion probabiliste basée sur des pixels à deux dimensions pour des inversions de données d'ondes EM planes et de tomographies de résistivité électrique (ERT) séparées et jointes. Je compare les incertitudes des paramètres du modèle en considérant différents types d'information a priori sur la structure du modèle et différentes fonctions de vraisemblance pour décrire les erreurs sur les données. Les résultats indiquent que la régularisation du modèle est nécessaire lorsqu'on a à faire à un large nombre de paramètres car cela permet d'accélérer la convergence des chaînes et d'obtenir des modèles plus réalistes. Cependent, ces contraintes mènent à des incertitudes d'estimations plus faibles, ce qui implique des distributions a posteriori qui ne contiennent pas le vrai modèledans les régions ou` la méthode présente une sensibilité limitée. Cette situation peut être améliorée en combinant des méthodes d'ondes EM planes avec d'autres méthodes complémentaires telles que l'ERT. De plus, je montre que le poids de régularisation des paramètres et l'écart-type des erreurs sur les données peuvent être retrouvés par une inversion probabiliste. Finalement, j'évalue la possibilité de caractériser une distribution tridimensionnelle d'un panache de traceur salin injecté dans le sous-sol en réalisant une inversion probabiliste time-lapse tridimensionnelle d'ondes EM planes. Etant donné que les inversions probabilistes sont très coûteuses en temps de calcul lorsque l'espace des paramètres présente une grande dimension, je propose une stratégie de réduction du modèle ou` les coefficients de décomposition des moments de Legendre du panache de traceur injecté ainsi que sa position sont estimés. Pour ce faire, un modèle de résistivité de base est nécessaire. Il peut être obtenu avant l'expérience time-lapse. Un test synthétique montre que la méthodologie marche bien quand le modèle de résistivité de base est caractérisé correctement. Cette méthodologie est aussi appliquée à un test de trac¸age par injection d'une solution saline et d'acides réalisé dans un système géothermal en Australie, puis comparée à une inversion time-lapse tridimensionnelle réalisée selon une approche déterministe. L'inversion probabiliste permet de mieux contraindre le panache du traceur salin gr^ace à la grande quantité d'informations a priori incluse dans l'algorithme. Néanmoins, les changements de conductivités nécessaires pour expliquer les changements observés dans les données sont plus grands que ce qu'expliquent notre connaissance actuelle des phénomenès physiques. Ce problème peut être lié à la qualité limitée du modèle de résistivité de base utilisé, indiquant ainsi que des efforts plus grands devront être fournis dans le futur pour obtenir des modèles de base de bonne qualité avant de réaliser des expériences dynamiques. Les études décrites dans cette thèse montrent que les méthodes d'ondes EM planes sont très utiles pour caractériser et suivre les variations temporelles du sous-sol sur de larges échelles. Les présentes approches améliorent l'évaluation des modèles obtenus, autant en termes d'incorporation d'informations a priori, qu'en termes de quantification d'incertitudes a posteriori. De plus, les stratégies développées peuvent être appliquées à d'autres méthodes géophysiques, et offrent une grande flexibilité pour l'incorporation d'informations additionnelles lorsqu'elles sont disponibles. -- The efficient use of geothermal systems, the sequestration of CO2 to mitigate climate change, and the prevention of seawater intrusion in coastal aquifers are only some examples that demonstrate the need for novel technologies to monitor subsurface processes from the surface. A main challenge is to assure optimal performance of such technologies at different temporal and spatial scales. Plane-wave electromagnetic (EM) methods are sensitive to subsurface electrical conductivity and consequently to fluid conductivity, fracture connectivity, temperature, and rock mineralogy. These methods have governing equations that are the same over a large range of frequencies, thus allowing to study in an analogous manner processes on scales ranging from few meters close to the surface down to several hundreds of kilometers depth. Unfortunately, they suffer from a significant resolution loss with depth due to the diffusive nature of the electromagnetic fields. Therefore, estimations of subsurface models that use these methods should incorporate a priori information to better constrain the models, and provide appropriate measures of model uncertainty. During my thesis, I have developed approaches to improve the static and dynamic characterization of the subsurface with plane-wave EM methods. In the first part of this thesis, I present a two-dimensional deterministic approach to perform time-lapse inversion of plane-wave EM data. The strategy is based on the incorporation of prior information into the inversion algorithm regarding the expected temporal changes in electrical conductivity. This is done by incorporating a flexible stochastic regularization and constraints regarding the expected ranges of the changes by using Lagrange multipliers. I use non-l2 norms to penalize the model update in order to obtain sharp transitions between regions that experience temporal changes and regions that do not. I also incorporate a time-lapse differencing strategy to remove systematic errors in the time-lapse inversion. This work presents improvements in the characterization of temporal changes with respect to the classical approach of performing separate inversions and computing differences between the models. In the second part of this thesis, I adopt a Bayesian framework and use Markov chain Monte Carlo (MCMC) simulations to quantify model parameter uncertainty in plane-wave EM inversion. For this purpose, I present a two-dimensional pixel-based probabilistic inversion strategy for separate and joint inversions of plane-wave EM and electrical resistivity tomography (ERT) data. I compare the uncertainties of the model parameters when considering different types of prior information on the model structure and different likelihood functions to describe the data errors. The results indicate that model regularization is necessary when dealing with a large number of model parameters because it helps to accelerate the convergence of the chains and leads to more realistic models. These constraints also lead to smaller uncertainty estimates, which imply posterior distributions that do not include the true underlying model in regions where the method has limited sensitivity. This situation can be improved by combining planewave EM methods with complimentary geophysical methods such as ERT. In addition, I show that an appropriate regularization weight and the standard deviation of the data errors can be retrieved by the MCMC inversion. Finally, I evaluate the possibility of characterizing the three-dimensional distribution of an injected water plume by performing three-dimensional time-lapse MCMC inversion of planewave EM data. Since MCMC inversion involves a significant computational burden in high parameter dimensions, I propose a model reduction strategy where the coefficients of a Legendre moment decomposition of the injected water plume and its location are estimated. For this purpose, a base resistivity model is needed which is obtained prior to the time-lapse experiment. A synthetic test shows that the methodology works well when the base resistivity model is correctly characterized. The methodology is also applied to an injection experiment performed in a geothermal system in Australia, and compared to a three-dimensional time-lapse inversion performed within a deterministic framework. The MCMC inversion better constrains the water plumes due to the larger amount of prior information that is included in the algorithm. The conductivity changes needed to explain the time-lapse data are much larger than what is physically possible based on present day understandings. This issue may be related to the base resistivity model used, therefore indicating that more efforts should be given to obtain high-quality base models prior to dynamic experiments. The studies described herein give clear evidence that plane-wave EM methods are useful to characterize and monitor the subsurface at a wide range of scales. The presented approaches contribute to an improved appraisal of the obtained models, both in terms of the incorporation of prior information in the algorithms and the posterior uncertainty quantification. In addition, the developed strategies can be applied to other geophysical methods, and offer great flexibility to incorporate additional information when available.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

L' évaluation quantitative des dangers et des expositions aux nanomatériaux se heurte à de nombreuses incertitudes qui ne seront levées qu'à mesure de la progression des connaissances scientifiques de leurs propriétés. L' une des conséquences de ces incertitudes est que les valeurs limites d'exposition professionnelle définies actuellement pour les poussières ne sont pas nécessairement pertinentes aux nanomatériaux. En l'absence de référentiel quantitatif et, à la demande de la DGS pour éclairer les réflexions de l' AFNOR et de l'ISO sur le sujet, une démarche de gestion graduée des risques (control banding) a été élaborée au sein de l' Anses. Ce développement a été réalisé à l'aide d'un groupe d'experts rapporteurs rattaché au Comité d'experts spécialisés évaluation des risques liés aux agents physiques, aux nouvelles technologies et aux grands aménagements. La mise en oeuvre de la démarche de gestion graduée des risques proposée repose sur quatre grandes étapes: 1. Le recueil des informations. Cette étape consiste à réunir les informations disponibles sur les dangers du nanomatériau manufacturé considéré ; ainsi que sur l'exposition potentielle des personnes aux postes de travail (observation sur le terrain, mesures, etc.). 2. L'attribution d'une bande de danger. Le danger potentiel du nanomatériau manufacturé présent, qu'il soit brut où incorporé dans une matrice (liquide ou solide) est évalué dans cette étape. La bande danger attribuée tient compte de la dangerosité du produit bulk ou de sa substance analogue à l'échelle non-nanométrique, de la bio-persistance du matériau (pour les matériaux fibreux), de sa solubilité et de son éventuelle réactivité. 3. Attribution d'une bande d'exposition. La bande d'exposition du nanomatériau manufacturé considéré ou du produit en contenant est définie par le niveau de potentiel d'émission du produit. Elle tient compte de sa forme physique (solide, liquide, poudre aérosol), de sa pulvérulence et de sa volatilité. Le nombre de travailleurs, la fréquence, la durée d'exposition ainsi que la quantité mise en oeuvre ne sont pas pris en compte, contrairement à une évaluation classique des risques chimiques. 4. Obtention d'une bande de maîtrise des risques. Le croisement des bandes de dangers et d'exposition préalablement attribuées permet de défi nir le niveau de maîtrise du risque. Il fait correspondre les moyens techniques et organisationnels à mettre en oeuvre pour maintenir le risque au niveau le plus faible possible. Un plan d'action est ensuite défi ni pour garantir l'effi cacité de la prévention recommandée par le niveau de maîtrise déterminé. Il tient compte des mesures de prévention déjà existantes et les renforce si nécessaire. Si les mesures indiquées par le niveau de maîtrise de risque ne sont pas réalisables, par exemple, pour des raisons techniques ou budgétaires, une évaluation de risque approfondie devra être réalisée par un expert. La gestion graduée des risques est une méthode alternative pour réaliser une évaluation qualitative de risques et mettre en place des moyens de prévention sans recourir à une évaluation quantitative des risques. Son utilisation semble particulièrement adaptée au contexte des nanomatériaux manufacturés, pour lequel les choix de valeurs de référence (Valeurs limites d'exposition en milieu professionnel) et des techniques de mesurage appropriées souffrent d'une grande incertitude. La démarche proposée repose sur des critères simples, accessibles dans la littérature scientifi que ou via les données techniques relatives aux produits utilisés. Pour autant, sa mise en oeuvre requiert des compétences minimales dans les domaines de la prévention des risques chimiques (chimie, toxicologie, etc.), des nanosciences et des nanotechnologies.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Rapport de synthèse : La présence de trois canaux d'eau, appelés aquaporines AQP1, AQP4 et AQP9, a été observée dans le cerveau sain ainsi que dans plusieurs modèles des pathologies cérébrales des rongeurs. Peu est connu sur la distribution des AQP dans le cerveau des primates. Cette connaissance sera utile pour des futurs essaies médicamenteux qui visent à prévenir la formation des oedèmes cérébraux. Nous avons étudié l'expression et la distribution cellulaire des AQP1, 4 et 9 dans le cerveau primate non-humain. La distribution des AQP4 dans le cerveau primate non-humain a été observée dans des astrocytes périvasculaires, comparable à l'observation faite dans le cerveau du rongeur. Contrairement à ce qui a été décrit chez le rongeur, l'AQPI chez le primate est exprimée dans les processus et dans les prolongations périvasculaires d'un sous-type d'astrocytes, qui est avant tout localisé dans la matière blanche et dans la glia limitans et qui est peut-être impliqué dans l'homéostasie de l'eau. L'AQPI a aussi été observée dans les neurones qui innervent des vaisseaux sanguins de la pie-mère, suggérant un rôle possible dans la régularisation de la vascularisation cérébrale. Comme décrit chez le rongeur, le mRNA et les protéines de l'AQP9 ont été détectés dans des astrocytes et dans des neurones catécholaminergiques. Chez le primate, des localisations supplémentaires ont été observées dans des populations de neurones placées dans certaines zones corticales. Cet article décrit une étude détaillée sur la distribution des AQP1, 4 et 9 dans le cerveau primate non-humain. Les observations faites s'additionnent aux data déjà publié sur le cerveau du rongeur. Ces importantes différences entre les espèces doivent être considérées dans l'évaluation des médicaments qui agiront potentiellement sur des AQP des primates non-humains avant d'entrer dans la phase des essais cliniques sur des humains.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Face aux questions urgentes de marginalisation des villes méditerranéennes, nous nous interrogeons sur les modalités de l'intégration économique des territoires méditerranéens par les firmes multinationales, et sur la manière d'envisager leurs développements dans un contexte économique néo-libéral où le développement passe avant tout par l'investissement privé. Les firmes multinationales, grâce à leur organisation en réseaux à l'échelle de la planète, participent à ces processus d'intégration et se voient confier un rôle fondamental dans les politiques publiques d'intégration des territoires. Par une approche multi-échelles et multi-niveaux, nous avons observé l'intégration des villes par les réseaux de firmes multinationales en approfondissant en particulier les villes des pays du sud de la Méditerranée par les firmes multinationales du secteur agroalimentaire. Au niveau micro, nous avons analysé les stratégies des firmes multinationales selon une approche structurelle de leurs réseaux d'organisation financière, qui combine une approche élaborée par les gestionnaires selon le degré d'intégration internationale des activités au sein des groupes, avec l'analyse quantitative des réseaux sociaux. Au niveau macro, afin d'étudier le réseau de villes, nous avons effectué une agrégation de ces stratégies micro d'entreprises par agglomérations urbaines représentant des villes comparables. Nous avons confronté ces résultats à des études monographiques afin de souligner les processus locaux d'intégration des territoires par les firmes multinationales. D'après nos résultats, nous pouvons suggérer que les processus de métropolisation du système de villes sont le résultat à la fois d'attractivités internationales multiples, et de logiques sectorielles cumulées, conformément à la théorie des économies d'agglomération. La forte différenciation des modes de gouvernance des réseaux d'entreprises au niveau micro et la faible différenciation des réseaux de villes par ces mêmes firmes au niveau macro, nous a donc conduit à penser que les différences de mode de gouvernance observées au niveau micro des firmes multinationales vont se traduire par une différenciation au niveau de la mise en réseau des firmes à l'échelle intra-urbaine. Cette mise en réseau à l'échelle intra-urbaine est déterminante puisque nous avons observé que la connectivité intra-urbaine est fortement corrélée au pouvoir relatif de la ville sur les autres villes. Ceci peut s'expliquer par le fait que les villes qui ont des fonctions de siège ont besoin de s'appuyer sur un ensemble de services dans la ville, donc de fortes économies d'urbanisation. Nous avons observé que les villes méditerranéennes appartiennent à la région européenne mais la dissysmétrie des relations entre le nord et le sud témoignent de processus de périphérisation liées aux structures internationales des accords bilatéraux entre l'union européenne et les pays du sud de la Méditerranée. Cependant, nous avons pu vérifier au niveau local que la firme participe à des processus de développement plus larges à l'échelle du pays en participant à la restructuration des filières locales. Parce qu'elles appliquent le même modèle d'implantation où qu'elles soient, ce sont les acteurs institutionnels qui jouent un rôle déterminant dans les processus de développement en protégeant les filières locales, en réglementant les marchés nationaux, et en soutenant au niveau local les acteurs de la filière. Ces observations appliquées au cadre euro-méditerranéen suggèrent qu'il faudrait soutenir davantage les structures internationales pour accroître la compétitivité des territoires méditerranéens, et ce à tous les niveaux : renforcer les partenariats régionaux sud-sud pour l'émergence d'une région sud-méditerranéenne plus intégrée, et soutenir et réglementer davantage les filières locales avec une attention particulière accordée aux processus intra-urbains.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

L'objectif de ce mémoire de master est de créer un système d'indicateurs de résultats pour évaluer l'impact des soins à domicile sur la qualité de vie des personnes âgées fragiles et dépendantes vivant dans le canton de Vaud. Ainsi, le premier chapitre présente le système des soins à domicile dans le canton de Vaud dans son ensemble et, en particulier, le panel d'acteurs qui y participe, soit les prestataires, les co-acteurs et les bénéficiaires. Afin de connaître l'état de la recherche sur le sujet, une revue de la littérature sur l'évaluation des soins à domicile tant dans le canton de Vaud qu'au niveau international est développée au chapitre 2. Le concept de qualité de vie est défini au chapitre 3. Les différentes mesures de ce concept y sont également détaillées ainsi que les dimensions les plus citées dans la littérature, tant objectives que subjectives. Le chapitre 4 expose la recherche « terrain » effectuée auprès d'une dizaine de client-e-s de CMS par le biais d'interviews. Une fois les différentes étapes (hypothèse de départ, échantillonnage, grille d'entretien) exposées, les rencontres avec les client-e-s de CMS les plus marquantes sont décrites. Enfin, au chapitre 5, sont présentés les onze indicateurs de résultats en lien avec les différentes dimensions de la qualité de vie : la santé, les relations sociales, le statut socio-économique, le domicile, les capacités fonctionnelles et le bien-être.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Résumé Cette recherche analyse les transformations de la gouvernance d'entreprise et des relations industrielles entre 1970 et 2008 dans le contexte suisse, en mettant l'accent sur les changements survenus depuis les années 1990. Elle se centre sur le secteur de l'industrie des machines, de l'électrotechnique et de la métallurgie -noyau historique du capitalisme helvétique et principal employeur et exportateur industriel du pays - et discute l'hypothèse de la convergence des économies coordonnées vers le modèle libéral. Elle examine d'abord les formes de coordination hors-marché qui se sont consolidées entre les élites économiques suisses au cours de la période d'après-guerre. Les stratégies d'innovation incrémentale des grandes sociétés étaient soutenues par une gouvernance marquée par la faible pression des marchés des capitaux, en raison notamment de la forte concentration de l'actionnariat, de mécanismes protectionnistes en matière d'accès au contrôle des sociétés, ainsi que d'une grande interdépendance entre banques et entreprises. Cette interdépendance apparaît dans la forte densité du réseau d'interconnexions des Conseils d'administration, où les principales banques tiennent une place centrale. Le réseau met également en relation les sociétés du secteur entre elles, ainsi qu'avec des firmes actives sur d'autres marchés, ce qui témoigne de l'irréductibilité des stratégies industrielles à une pure logique de compétition centrée sur les marchés. Les stratégies à long terme du management peuvent également s'appuyer sur un système pacifié de relations industrielles, caractérisé par l'autorégulation des acteurs privés dans le cadre d'un partenariat social de branche entre des associations aux stratégies modérées, « néocorporatistes ». Nous analysons alors l'impact de la libéralisation et de la financiarisation de l'économie suisse sur la coordination des élites économiques durant les années 1990. Nous montrons que l'affirmation des fonds d'investissement a déstabilisé le système traditionnel de gouvernance d'entreprise. Ce dernier a ainsi été marqué par l'émergence d'un marché pour le contrôle de l'entreprise -fin du «capital patient » -, la dissolution de l'interdépendance entre banques et industries et plus globalement des formes de coordination hors-marché reposant sur le réseau d'interconnexions des Conseils d'administration, ainsi que par de profondes restructurations des grandes sociétés orientées vers la création de richesse pour les actionnaires. La recherche explore alors les logiques d'interactions entre la sphère de la gouvernance d'entreprise et celle des relations industrielles, l'affirmation du capital financier faisant pression sur le partenariat social dans le sens d'une flexibilisation et déréglementation du marché du travail. Par ailleurs, nous mettons en perspective le rôle central des élites dans le changement institutionnel. Loin de subir la pression des actionnaires, les préférences d'une nouvelle élite managériale au profil financier ont convergé avec les intérêts des investisseurs dans le processus de financiarisation. Ces préférences ont également participé à l'érosion du partenariat social de branche. Du côté syndical, l'émergence -ici aussi - d'une nouvelle élite, académique et issue de la gauche politique, au cours des années 1990, a remis en cause les recettes de l'ancienne génération de syndicalistes ouvriers. La principale association du secteur a ainsi diversifié ses registres d'action en investissant la sphère politique et en relativisant la paix absolue du travail, deux stratégies activement rejetées par le syndicat au cours du régime de croissance d'après-guerre. Tout en mettant la sociologie des élites au service d'une meilleure compréhension des processus de changement institutionnel dans les capitalismes contemporains, cette recherche souligne des logiques de changement différentes dans les sphères sous revue :changement disruptif dans la gouvernance d'entreprise, incrémentai dans les relations industrielles. L'analyse s'est appuyée sur le croisement de différentes méthodes : analyse documentaire, entretiens semi-directifs, analyse du parcours et profil des élites, analyse de réseau, études de cas.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Ce travail porte sur le développement des compétences sociales et des cercles sociaux à l'adolescence. Il s'intéresse plus particulièrement à l'effet au cours du temps que peuvent avoir les nouveaux moyens de communication électronique (MCE) sur ces deux aspects de la socialisation. Trois parties principales se dégagent de ce travail. La première partie présente le développement d'un outil multidimensionnel destiné à l'évaluation des compétences sociales et permettant de les distinguer en fonction du contexte d'interaction (online vs. offline). La seconde partie porte sur la comparaison des compétences sociales et de la taille du cercle social de 329 adolescents de 7e et de 8e année primaire, en fonction de leur utilisation, ou non, des MCE. Elle met en évidence que ces deux aspects diffèrent de manière statistiquement significative entre les deux groupes, en faveur des utilisateurs de MCE. La troisième partie se centre sur l'utilisation de différents MCE et sur les effets différentiels qu'ils peuvent avoir au cours du temps sur ces deux aspects de la socialisation. Les analyses des données longitudinales mettent en évidence que l'utilisation de sites de réseaux sociaux (SRS) est particulièrement susceptible d'améliorer les compétences sociales et d'augmenter la taille du cercle social. Un modèle dans lequel les compétences sociales jouent un rôle de médiateur entre l'utilisation de SRS et la taille du cercle social est finalement postulé. - This work's topic concerns the development of social skills and social network size during adolescence. It examines more particularly the effects that new online communication media (OCM) may have on these two aspects of adolescent socialization. It is subdivided in three distinct parts. The first part presents the development of a multidimensional tool designed to assess social skills in two different contexts of interaction (online vs. offline). The second part compares the social skills and social network size of 329 adolescents depending on their use, or not, of OCM. It highlights significant differences on these two aspects between users and non-users, in favor of OCM users. The third part focuses on the differential effects that six OCM may have over time on these two aspects of socialization. Longitudinal data analyses highlight that the use of social network sites (SNS) is particularly likely to improve social skills and to increase social network size. A model in which social skills mediate the relationship between SNS use and social network size is finally postulated.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Pour honorer Edith Tilmans-Ostyn, j'ai choisi de parler de « consultance », selon sa définition, avec différentes utilisations du jeu trilogique de Lausanne, dit LTP (Lausanne Trilogue Play). Elaboré au Centre d'Etude de la Famille à Lausanne avec Elisabeth Fivaz-Depeursinge, cette situation se prête aussi bien à l'évaluation des interactions familiales à des fins de recherche que comme outil clinique pour des interventions thérapeutiques, objectif de la consultance. Etant aussi à l'aube de ma retraite professionnelle, j'ai retracé dans cet article des situations où j'étais impliquée personnellement comme consultante-thérapeute avec différents aménagements possibles du jeu (jeu père-mère-bébé, jeu prénatal avec une poupée, jeu thérapeute-mère-bébé). Ces descriptions cliniques s'accompagnent de réflexions sur les propriétés de la consultance, les spécificités des interventions thérapeutiques sur les relations familiales précoces et l'usage de la vidéo: en quelque sorte un passage de témoin, une transmission d'un certain savoir-faire.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Abstract Working memory has been defined as the ability to maintain and manipulate on-line a limited amount of information. A large number of studies have investigated visuospatial working memory in schizophrenia. However, today, the available data concerning the functioning of these processes in schizophrenia are largely controversial. These inconclusive results are due to incomplete knowledge on processes involved in visuospatial working memory tasks. Recent studies suggest that visuospatial working memory processes may be divided into an active monitoring and a storing components. Furthermore, it has been shown that visuospatial working memory processes are strongly interconnected with early encoding processes (perceptual organization). In our view, the two working memory components, and the relationship that they entertain with early encoding processes, may be investigated using dynamic and static visuospatial stimuli in a working memory paradigm. In this thesis we aim at comparing dynamic and static visuospatial working memory processes in patients with schizophrenia and first-episode of psychosis patients. This analysis may clarify the functioning of visuospatial working memory and the dysfunction of these processes in schizophrenia. Our results are in accord with the hypothesis of two visuospatial working memory subcomponents. Dynamic, rather than static, stimuli are strongly involved in the visuospatial working memory encoding process. Indeed, the results are congruent with the idea that static stimuli may be strongly encoded by parallel perceptual organization processes. Patients with schizophrenia show important deficits in both working memory and perceptual organization encoding processes. In contrast, perceptual organization processes seem spared in firstepisodepsychosis patients. Considering our findings, we propose a model to explain the degradation of visuospatial processes involved in a working memory task during schizophrenia. Résumé: La mémoire de travail est définie comme la capacité à maintenir et manipuler « on-line » un nombre limité d'informations pour une courte période de temps (de l'ordre de quelques dizaines de secondes). Un grand nombre d'études a montré que les processus de mémoire de travail visuo spatiale peuvent être affectés dans la schizophrénie. Malgré cela, les données concernant les déficits de ces processus chez des patients qui souffrent de schizophrénie sont contradictoires. La difficulté de comprendre la nature des déficits de mémoire de travail visuospatiale dans la schizophrénie est en grande partie imputable aux connaissances encore lacunaires sur le fonctionnement de ces processus dans un état non pathologique. Dans cette thèse, on cherche à élucider le fonctionnement des processus de mémoire de travail visuospatiale. Pour cela, on a créé un nouveau paradigme qui sollicite ce type de mémoire. Dans ce paradigme, on présente des stimuli dynamiques et statiques. Après un court délai, le sujet doit reconnaître le stimulus qu'il a visualisé parmi six possibilités. Sur la base de récentes études neurophysiologiques, neuroanatomiques et psychologiques, nous avançons l'hypothèse que l'encodage de stimuli dynamiques et statiques repose sur deux processus distincts de mémoire de travail : un processus d'organisation qui manipule les informations sensorielles et un processus dé stockage qui est responsable du maintien de l'information au cours de la manipulation. Ces processus sont en relation directe avec les processus responsables d'une organisation de l'information à un niveau précoce du traitement visuel. Les études présentées dans cette thèse ont pour but de vérifier la pertinence de la distinction entre les processus de mémoire de travail visuospatiale, selon la modalité «dynamique » ou «statique ». L'investigation des processus dynamiques et statiques de mémoire de travail dans la schizophrénie présente deux avantages principaux. Premièrement, 1a pathologie pourrait permettre de mettre en évidence, par les dysfonctionnements qu'elle présente, la pertinence des hypothèses sur le fonctionnement des processus de mémoire de travail visuospatiale et de leur interaction avec les processus sensoriels. Deuxièmement, ces investigations rendent possible une analyse des dysfonctions des différents processus dans la schizophrénie. Dans cette thèse, on analyse aussi les processus de mémoire de travail «dynamiques » et «statiques » chez des sujets dans une phase initiale de la psychose. Les résultats de cette étude permettent de faire une comparaison avec ceux obtenus avec des patients qui souffrent de schizophrénie. Cette comparaison peut apporter des informations intéressantes sur l'évolution des dysfonctions dans les processus impliqués dans les fonctions de mémoire de travail visuospatiale au cours de la schizophrénie. Les résultats obtenus dans les différentes études sont cohérents avec l'hypothèse d'une implication différente des processus d'organisation de la mémoire de travail sur des stimuli dynamiques et statiques. -Nos résultats montrent que les processus de mémoire de travail responsables de l'organisation (manipulation active) des informations est déficitaire dans la schizophrénie. Ce déficit semble jouer un rôle de premier plan dans la dégradation des processus visuospatiaux au cours de la schizophrénie.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

La présente étude est à la fois une évaluation du processus de la mise en oeuvre et des impacts de la police de proximité dans les cinq plus grandes zones urbaines de Suisse - Bâle, Berne, Genève, Lausanne et Zurich. La police de proximité (community policing) est à la fois une philosophie et une stratégie organisationnelle qui favorise un partenariat renouvelé entre la police et les communautés locales dans le but de résoudre les problèmes relatifs à la sécurité et à l'ordre public. L'évaluation de processus a analysé des données relatives aux réformes internes de la police qui ont été obtenues par l'intermédiaire d'entretiens semi-structurés avec des administrateurs clés des cinq départements de police, ainsi que dans des documents écrits de la police et d'autres sources publiques. L'évaluation des impacts, quant à elle, s'est basée sur des variables contextuelles telles que des statistiques policières et des données de recensement, ainsi que sur des indicateurs d'impacts construit à partir des données du Swiss Crime Survey (SCS) relatives au sentiment d'insécurité, à la perception du désordre public et à la satisfaction de la population à l'égard de la police. Le SCS est un sondage régulier qui a permis d'interroger des habitants des cinq grandes zones urbaines à plusieurs reprises depuis le milieu des années 1980. L'évaluation de processus a abouti à un « Calendrier des activités » visant à créer des données de panel permettant de mesurer les progrès réalisés dans la mise en oeuvre de la police de proximité à l'aide d'une grille d'évaluation à six dimensions à des intervalles de cinq ans entre 1990 et 2010. L'évaluation des impacts, effectuée ex post facto, a utilisé un concept de recherche non-expérimental (observational design) dans le but d'analyser les impacts de différents modèles de police de proximité dans des zones comparables à travers les cinq villes étudiées. Les quartiers urbains, délimités par zone de code postal, ont ainsi été regroupés par l'intermédiaire d'une typologie réalisée à l'aide d'algorithmes d'apprentissage automatique (machine learning). Des algorithmes supervisés et non supervisés ont été utilisés sur les données à haute dimensionnalité relatives à la criminalité, à la structure socio-économique et démographique et au cadre bâti dans le but de regrouper les quartiers urbains les plus similaires dans des clusters. D'abord, les cartes auto-organisatrices (self-organizing maps) ont été utilisées dans le but de réduire la variance intra-cluster des variables contextuelles et de maximiser simultanément la variance inter-cluster des réponses au sondage. Ensuite, l'algorithme des forêts d'arbres décisionnels (random forests) a permis à la fois d'évaluer la pertinence de la typologie de quartier élaborée et de sélectionner les variables contextuelles clés afin de construire un modèle parcimonieux faisant un minimum d'erreurs de classification. Enfin, pour l'analyse des impacts, la méthode des appariements des coefficients de propension (propensity score matching) a été utilisée pour équilibrer les échantillons prétest-posttest en termes d'âge, de sexe et de niveau d'éducation des répondants au sein de chaque type de quartier ainsi identifié dans chacune des villes, avant d'effectuer un test statistique de la différence observée dans les indicateurs d'impacts. De plus, tous les résultats statistiquement significatifs ont été soumis à une analyse de sensibilité (sensitivity analysis) afin d'évaluer leur robustesse face à un biais potentiel dû à des covariables non observées. L'étude relève qu'au cours des quinze dernières années, les cinq services de police ont entamé des réformes majeures de leur organisation ainsi que de leurs stratégies opérationnelles et qu'ils ont noué des partenariats stratégiques afin de mettre en oeuvre la police de proximité. La typologie de quartier développée a abouti à une réduction de la variance intra-cluster des variables contextuelles et permet d'expliquer une partie significative de la variance inter-cluster des indicateurs d'impacts avant la mise en oeuvre du traitement. Ceci semble suggérer que les méthodes de géocomputation aident à équilibrer les covariables observées et donc à réduire les menaces relatives à la validité interne d'un concept de recherche non-expérimental. Enfin, l'analyse des impacts a révélé que le sentiment d'insécurité a diminué de manière significative pendant la période 2000-2005 dans les quartiers se trouvant à l'intérieur et autour des centres-villes de Berne et de Zurich. Ces améliorations sont assez robustes face à des biais dus à des covariables inobservées et covarient dans le temps et l'espace avec la mise en oeuvre de la police de proximité. L'hypothèse alternative envisageant que les diminutions observées dans le sentiment d'insécurité soient, partiellement, un résultat des interventions policières de proximité semble donc être aussi plausible que l'hypothèse nulle considérant l'absence absolue d'effet. Ceci, même si le concept de recherche non-expérimental mis en oeuvre ne peut pas complètement exclure la sélection et la régression à la moyenne comme explications alternatives. The current research project is both a process and impact evaluation of community policing in Switzerland's five major urban areas - Basel, Bern, Geneva, Lausanne, and Zurich. Community policing is both a philosophy and an organizational strategy that promotes a renewed partnership between the police and the community to solve problems of crime and disorder. The process evaluation data on police internal reforms were obtained through semi-structured interviews with key administrators from the five police departments as well as from police internal documents and additional public sources. The impact evaluation uses official crime records and census statistics as contextual variables as well as Swiss Crime Survey (SCS) data on fear of crime, perceptions of disorder, and public attitudes towards the police as outcome measures. The SCS is a standing survey instrument that has polled residents of the five urban areas repeatedly since the mid-1980s. The process evaluation produced a "Calendar of Action" to create panel data to measure community policing implementation progress over six evaluative dimensions in intervals of five years between 1990 and 2010. The impact evaluation, carried out ex post facto, uses an observational design that analyzes the impact of the different community policing models between matched comparison areas across the five cities. Using ZIP code districts as proxies for urban neighborhoods, geospatial data mining algorithms serve to develop a neighborhood typology in order to match the comparison areas. To this end, both unsupervised and supervised algorithms are used to analyze high-dimensional data on crime, the socio-economic and demographic structure, and the built environment in order to classify urban neighborhoods into clusters of similar type. In a first step, self-organizing maps serve as tools to develop a clustering algorithm that reduces the within-cluster variance in the contextual variables and simultaneously maximizes the between-cluster variance in survey responses. The random forests algorithm then serves to assess the appropriateness of the resulting neighborhood typology and to select the key contextual variables in order to build a parsimonious model that makes a minimum of classification errors. Finally, for the impact analysis, propensity score matching methods are used to match the survey respondents of the pretest and posttest samples on age, gender, and their level of education for each neighborhood type identified within each city, before conducting a statistical test of the observed difference in the outcome measures. Moreover, all significant results were subjected to a sensitivity analysis to assess the robustness of these findings in the face of potential bias due to some unobserved covariates. The study finds that over the last fifteen years, all five police departments have undertaken major reforms of their internal organization and operating strategies and forged strategic partnerships in order to implement community policing. The resulting neighborhood typology reduced the within-cluster variance of the contextual variables and accounted for a significant share of the between-cluster variance in the outcome measures prior to treatment, suggesting that geocomputational methods help to balance the observed covariates and hence to reduce threats to the internal validity of an observational design. Finally, the impact analysis revealed that fear of crime dropped significantly over the 2000-2005 period in the neighborhoods in and around the urban centers of Bern and Zurich. These improvements are fairly robust in the face of bias due to some unobserved covariate and covary temporally and spatially with the implementation of community policing. The alternative hypothesis that the observed reductions in fear of crime were at least in part a result of community policing interventions thus appears at least as plausible as the null hypothesis of absolutely no effect, even if the observational design cannot completely rule out selection and regression to the mean as alternative explanations.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Les laves torrentielles sont l'un des vecteurs majeurs de sédiments en milieu montagneux. Leur comportement hydrogéomorphologique est contrôlé par des facteurs géologique, géomorphologique, topographique, hydrologique, climatique et anthropique. Si, en Europe, la recherche s'est plus focalisée sur les aspects hydrologiques que géomorphologiques de ces phénomènes, l'identification des volumes de sédiments potentiellement mobilisables au sein de petits systèmes torrentiels et des processus responsables de leur transfert est d'une importance très grande en termes d'aménagement du territoire et de gestion des dangers naturels. De plus, une corrélation entre des événements pluviométriques et l'occurrence de laves torrentielles n'est pas toujours établie et de nombreux événements torrentiels semblent se déclencher lorsqu'un seuil géomorphologique intrinsèque (degré de remplissage du chenal) au cours d'eau est atteint.Une méthodologie pragmatique a été développée pour cartographier les stocks sédimentaires constituant une source de matériaux pour les laves torrentielles, comme outil préliminaire à la quantification des volumes transportés par ces phénomènes. La méthode s'appuie sur des données dérivées directement d'analyses en environnement SIG réalisées sur des modèles numériques d'altitude de haute précision, de mesures de terrain et d'interprétation de photographies aériennes. La méthode a été conçue pour évaluer la dynamique des transferts sédimentaires, en prenant en compte le rôle des différents réservoirs sédimentaires, par l'application du concept de cascade sédimentaire sous un angle cartographique.Les processus de transferts sédimentaires ont été étudiés dans deux bassins versants des Alpes suisses (torrent du Bruchi, à Blatten beiNaters et torrent du Meretschibach, à Agarn). La cartographie géomorphologique a été couplée avec des mesures complémentaires permettant d'estimer les flux sédimentaires et les taux d'érosion (traçages de peinture, piquets de dénudation et utilisation du LiDAR terrestre). La méthode proposée se révèle innovatrice en comparaison avec la plupart des systèmes de légendes géomorphologiques existants, qui ne sont souvent pas adaptés pour cartographier de manière satisfaisante les systèmes géomorphologiques complexes et actifs que sont les bassins torrentiels. L'intérêt de cette méthode est qu'elle permet l'établissement d'une cascade sédimentaire, mais uniquement pour des systèmes où l'occurrence d'une lave torrentielle est contrôlé par le degré de remplissage en matériaux du chenal. Par ailleurs, le produit cartographique ne peut être directement utilisé pour la création de cartes de dangers - axées sur les zones de dépôt - mais revêt un intérêt pour la mise en place de mesures de correction et pour l'installation de systèmes de monitoring ou d'alerte.La deuxième partie de ce travail de recherche est consacrée à la cartographie géomorphologique. Une analyse a porté sur un échantillon de 146 cartes ou systèmes de légende datant des années 1950 à 2009 et réalisés dans plus de 40 pays. Cette analyse a permis de mettre en évidence la diversité des applications et des techniques d'élaboration des cartes géomorphologiques. - Debris flows are one of the most important vectors of sediment transfer in mountainous areas. Their hydro-geomorphological behaviour is conditioned by geological, geomorphological, topographical, hydrological, climatic and anthropic factors. European research in torrential systems has focused more on hydrological processes than on geomorphological processes acting as debris flow triggers. Nevertheless, the identification of sediment volumes that have the potential to be mobilised in small torrential systems, as well as the recognition of processes responsible for their mobilisation and transfer within the torrential system, are important in terms of land-use planning and natural hazard management. Moreover, a correlation between rainfall and debris flow occurrence is not always established and a number of debris flows seems to occur when a poorly understood geomorphological threshold is reached.A pragmatic methodology has been developed for mapping sediment storages that may constitute source zone of bed load transport and debris flows as a preliminary tool before quantifying their volumes. It is based on data directly derived from GIS analysis using high resolution DEM's, field measurements and aerial photograph interpretations. It has been conceived to estimate sediment transfer dynamics, taking into account the role of different sediment stores in the torrential system applying the concept of "sediment cascade" in a cartographic point of view.Sediment transfer processes were investigated in two small catchments in the Swiss Alps (Bruchi torrent, Blatten bei Naters and Meretschibach torrent, Agarn). Thorough field geomorphological mapping coupled with complementary measurements were conducted to estimate sediment fluxes and denudation rates, using various methods (reference coloured lines, wooden markers and terrestrial LiDAR). The proposed geomorphological mapping methodology is quite innovative in comparison with most legend systems that are not adequate for mapping active and complex geomorphological systems such as debris flow catchments. The interest of this mapping method is that it allows the concept of sediment cascade to be spatially implemented but only for supply-limited systems. The map cannot be used directly for the creation of hazard maps, focused on the deposition areas, but for the design of correction measures and the implementation of monitoring and warning systems.The second part of this work focuses on geomorphological mapping. An analysis of a sample of 146 (extracts of) maps or legend systems dating from the middle of the 20th century to 2009 - realised in more than 40 different countries - was carried out. Even if this study is not exhaustive, it shows a clear renewed interest for the discipline worldwide. It highlights the diversity of applications, techniques (scale, colours and symbology) used for their conception.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Dans le contexte d'un climat de plus en plus chaud, une étude « géosystémique » de la répartition du pergélisol dans l'ensemble d'un versant périglaciaire alpin, de la paroi rocheuse jusqu'au glacier rocheux, s'avère primordiale. S'insérant dans cette problématique, ce travail de thèse vise comme objectif général l'étude des versants d'éboulis situés à l'intérieur de la ceinture du pergélisol discontinu selon deux volets de recherche différents : une étude de la stratigraphie et de la répartition du pergélisol dans les éboulis de haute altitude et des processus qui lui sont associés ; une reconstitution de l'histoire paléoenvironnementale du domaine périglaciaire alpin pendant le Tardiglaciaire et l'Holocène. La stratigraphie et la répartition spatiale du pergélisol a été étudiée dans cinq éboulis des Alpes Valaisannes (Suisse), dont trois ont fait l'objet de forages profonds, grâce à la prospection géophysique de détail effectuée à l'aide de méthodes thermiques, de résistivité, sismiques et nucléaires. Les mesures effectuées ont permis de mettre en évidence que, dans les cinq éboulis étudiés, la répartition du pergélisol est discontinue et aucun des versants n'est intégralement occupé par du pergélisol. En particulier, il a été possible de prouver de manière directe que, dans un éboulis, le pergélisol est présent dans les parties inférieures du versant et absent dans les parties supérieures. Trois facteurs de contrôle principaux de la répartition du pergélisol déterminée au sein des éboulis étudiés ont été individualisés, pouvant agir seuls ou de manière combinée : la ventilation ascendante, l'augmentation de la granulométrie en direction de l'aval et la redistribution de la neige par le vent et les avalanches. Parmi ceux-ci, la relation ventilation - granulométrie semble être le facteur de contrôle principal permettant d'expliquer la présence de pergélisol dans les parties inférieures d'un éboulis et son absence dans les parties supérieures. Enfin, l'analyse de la structure des éboulis périglaciaires de haute altitude a permis de montrer que la stratigraphie du pergélisol peut être un élément important pour l'interprétation de la signification paléoclimatique de ce type de formes. Pour le deuxième volet de la recherche, grâce aux datations relatives effectuées à l'aide de l'utilisation conjointe de la méthode paléogéographique et du marteau de Schmidt, il a été possible de définir la chrono - stratigraphie du retrait glaciaire et du développement des glaciers rocheux et des versants d'éboulis d es quatre régions des Alpes suisses étudiées (régions du Mont Gelé - Mont Fort, des Fontanesses et de Chamosentse , dans les Alpes Valaisannes, et Massif de la Cima di Gana Bianca , dans les Alpes Tessinoises). La compilation de toutes les datations effectuées a permis de montrer que la plupart des glaciers rocheux actifs étudiés se seraient développés soit juste avant et/ou pendant l'Optimum Climatique Holocène de 9.5 - 6.3 ka cal BP, soit au plus tard juste après cet évènement climatique majeur du dernier interglaciaire. Parmi les glaciers rocheux fossiles datés, la plupart aurait commencé à se former dans la deuxième moitié du Tardiglaciaire et se serait inactivé dans la première partie de l'Optimum Climatique Holocène. Pour les éboulis étudiés, les datations effectuées ont permis d'observer que leur surface date de la période entre le Boréal et l'Atlantique récent, indiquant que les taux d'éboulisation après la fin de l'Optimum Climatique Holocène ont dû être faibles, et que l'intervalle entre l'âge maximal et l'âge minimal est dans la plupart des cas relativement court (4 - 6 millénaires), indiquant que les taux d'éboulisation durant la période de formation des éboulis ont dû être importants. Grâce au calcul des taux d'érosion des parois rocheuses sur la base du volume de matériaux rocheux pour quatre des éboulis étudiés, il a été possible mettre en évidence l'existence d'une « éboulisation parapériglaciaire » liée à la dégradation du pergélisol dans les parois rocheuses, fonctionnant principalement durant les périodes de réchauffement climatique rapide comme cela a été le cas au début du Bølling, du Préboréal à la fin de l'Atlantique récent et, peut-être, à partir des années 1980.