257 resultados para Environnement simulé (Méthode pédagogique)

em Université de Lausanne, Switzerland


Relevância:

100.00% 100.00%

Publicador:

Resumo:

La simulation sous ses différentes formes est devenue un outil incontournable dans la formation des professionnels de la santé. Il n'en demeure pas moins que la simulation intervient dans un environnement complexe où le comportement humain est une variable essentielle. Dans ce contexte, la recherche en simulation est indispensable : elle doit produire des connaissances qui nous permettent de mieux comprendre l'apprentissage par la simulation. Pour atteindre cet objectif, la recherche en simulation doit être aussi rigoureuse que toute recherche clinique, afin qu'elle puisse produire des connaissances de qualité. De par la complexité de l'environnement simulé, la recherche dans ce domaine est riche et recourt à des méthodes variées issues des sciences du comportement, de l'éducation et plus largement des sciences sociales.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Des progrès significatifs ont été réalisés dans le domaine de l'intégration quantitative des données géophysique et hydrologique l'échelle locale. Cependant, l'extension à de plus grandes échelles des approches correspondantes constitue encore un défi majeur. Il est néanmoins extrêmement important de relever ce défi pour développer des modèles fiables de flux des eaux souterraines et de transport de contaminant. Pour résoudre ce problème, j'ai développé une technique d'intégration des données hydrogéophysiques basée sur une procédure bayésienne de simulation séquentielle en deux étapes. Cette procédure vise des problèmes à plus grande échelle. L'objectif est de simuler la distribution d'un paramètre hydraulique cible à partir, d'une part, de mesures d'un paramètre géophysique pertinent qui couvrent l'espace de manière exhaustive, mais avec une faible résolution (spatiale) et, d'autre part, de mesures locales de très haute résolution des mêmes paramètres géophysique et hydraulique. Pour cela, mon algorithme lie dans un premier temps les données géophysiques de faible et de haute résolution à travers une procédure de réduction déchelle. Les données géophysiques régionales réduites sont ensuite reliées au champ du paramètre hydraulique à haute résolution. J'illustre d'abord l'application de cette nouvelle approche dintégration des données à une base de données synthétiques réaliste. Celle-ci est constituée de mesures de conductivité hydraulique et électrique de haute résolution réalisées dans les mêmes forages ainsi que destimations des conductivités électriques obtenues à partir de mesures de tomographic de résistivité électrique (ERT) sur l'ensemble de l'espace. Ces dernières mesures ont une faible résolution spatiale. La viabilité globale de cette méthode est testée en effectuant les simulations de flux et de transport au travers du modèle original du champ de conductivité hydraulique ainsi que du modèle simulé. Les simulations sont alors comparées. Les résultats obtenus indiquent que la procédure dintégration des données proposée permet d'obtenir des estimations de la conductivité en adéquation avec la structure à grande échelle ainsi que des predictions fiables des caractéristiques de transports sur des distances de moyenne à grande échelle. Les résultats correspondant au scénario de terrain indiquent que l'approche d'intégration des données nouvellement mise au point est capable d'appréhender correctement les hétérogénéitées à petite échelle aussi bien que les tendances à gande échelle du champ hydraulique prévalent. Les résultats montrent également une flexibilté remarquable et une robustesse de cette nouvelle approche dintégration des données. De ce fait, elle est susceptible d'être appliquée à un large éventail de données géophysiques et hydrologiques, à toutes les gammes déchelles. Dans la deuxième partie de ma thèse, j'évalue en détail la viabilité du réechantillonnage geostatique séquentiel comme mécanisme de proposition pour les méthodes Markov Chain Monte Carlo (MCMC) appliquées à des probmes inverses géophysiques et hydrologiques de grande dimension . L'objectif est de permettre une quantification plus précise et plus réaliste des incertitudes associées aux modèles obtenus. En considérant une série dexemples de tomographic radar puits à puits, j'étudie deux classes de stratégies de rééchantillonnage spatial en considérant leur habilité à générer efficacement et précisément des réalisations de la distribution postérieure bayésienne. Les résultats obtenus montrent que, malgré sa popularité, le réechantillonnage séquentiel est plutôt inefficace à générer des échantillons postérieurs indépendants pour des études de cas synthétiques réalistes, notamment pour le cas assez communs et importants où il existe de fortes corrélations spatiales entre le modèle et les paramètres. Pour résoudre ce problème, j'ai développé un nouvelle approche de perturbation basée sur une déformation progressive. Cette approche est flexible en ce qui concerne le nombre de paramètres du modèle et lintensité de la perturbation. Par rapport au rééchantillonage séquentiel, cette nouvelle approche s'avère être très efficace pour diminuer le nombre requis d'itérations pour générer des échantillons indépendants à partir de la distribution postérieure bayésienne. - Significant progress has been made with regard to the quantitative integration of geophysical and hydrological data at the local scale. However, extending corresponding approaches beyond the local scale still represents a major challenge, yet is critically important for the development of reliable groundwater flow and contaminant transport models. To address this issue, I have developed a hydrogeophysical data integration technique based on a two-step Bayesian sequential simulation procedure that is specifically targeted towards larger-scale problems. The objective is to simulate the distribution of a target hydraulic parameter based on spatially exhaustive, but poorly resolved, measurements of a pertinent geophysical parameter and locally highly resolved, but spatially sparse, measurements of the considered geophysical and hydraulic parameters. To this end, my algorithm links the low- and high-resolution geophysical data via a downscaling procedure before relating the downscaled regional-scale geophysical data to the high-resolution hydraulic parameter field. I first illustrate the application of this novel data integration approach to a realistic synthetic database consisting of collocated high-resolution borehole measurements of the hydraulic and electrical conductivities and spatially exhaustive, low-resolution electrical conductivity estimates obtained from electrical resistivity tomography (ERT). The overall viability of this method is tested and verified by performing and comparing flow and transport simulations through the original and simulated hydraulic conductivity fields. The corresponding results indicate that the proposed data integration procedure does indeed allow for obtaining faithful estimates of the larger-scale hydraulic conductivity structure and reliable predictions of the transport characteristics over medium- to regional-scale distances. The approach is then applied to a corresponding field scenario consisting of collocated high- resolution measurements of the electrical conductivity, as measured using a cone penetrometer testing (CPT) system, and the hydraulic conductivity, as estimated from electromagnetic flowmeter and slug test measurements, in combination with spatially exhaustive low-resolution electrical conductivity estimates obtained from surface-based electrical resistivity tomography (ERT). The corresponding results indicate that the newly developed data integration approach is indeed capable of adequately capturing both the small-scale heterogeneity as well as the larger-scale trend of the prevailing hydraulic conductivity field. The results also indicate that this novel data integration approach is remarkably flexible and robust and hence can be expected to be applicable to a wide range of geophysical and hydrological data at all scale ranges. In the second part of my thesis, I evaluate in detail the viability of sequential geostatistical resampling as a proposal mechanism for Markov Chain Monte Carlo (MCMC) methods applied to high-dimensional geophysical and hydrological inverse problems in order to allow for a more accurate and realistic quantification of the uncertainty associated with the thus inferred models. Focusing on a series of pertinent crosshole georadar tomographic examples, I investigated two classes of geostatistical resampling strategies with regard to their ability to efficiently and accurately generate independent realizations from the Bayesian posterior distribution. The corresponding results indicate that, despite its popularity, sequential resampling is rather inefficient at drawing independent posterior samples for realistic synthetic case studies, notably for the practically common and important scenario of pronounced spatial correlation between model parameters. To address this issue, I have developed a new gradual-deformation-based perturbation approach, which is flexible with regard to the number of model parameters as well as the perturbation strength. Compared to sequential resampling, this newly proposed approach was proven to be highly effective in decreasing the number of iterations required for drawing independent samples from the Bayesian posterior distribution.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Ce guide présente la méthode Data Envelopment Analysis (DEA), une méthode d'évaluation de la performance . Il est destiné aux responsables d'organisations publiques qui ne sont pas familiers avec les notions d'optimisation mathématique, autrement dit de recherche opérationnelle. L'utilisation des mathématiques est par conséquent réduite au minimum. Ce guide est fortement orienté vers la pratique. Il permet aux décideurs de réaliser leurs propres analyses d'efficience et d'interpréter facilement les résultats obtenus. La méthode DEA est un outil d'analyse et d'aide à la décision dans les domaines suivants : - en calculant un score d'efficience, elle indique si une organisation dispose d'une marge d'amélioration ; - en fixant des valeurs-cibles, elle indique de combien les inputs doivent être réduits et les outputs augmentés pour qu'une organisation devienne efficiente ; - en identifiant le type de rendements d'échelle, elle indique si une organisation doit augmenter ou au contraire réduire sa taille pour minimiser son coût moyen de production ; - en identifiant les pairs de référence, elle désigne quelles organisations disposent des best practice à analyser.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le bassin du Rhône à l'amont du Léman peut être sujet à de fortes précipitations en mesure de provoquer des crues significatives. L'objectif du projet MINERVE dans lequel s'inscrit le présent travail consiste à fournir des outils pour la prévision et la gestion des crues par des actions préventives sur les aménagements hydroélectriques à accumulation. Pour satisfaire ce dernier, il est nécessaire de prévoir au mieux les cumuls de précipitations pour les jours suivants. Ceci est actuellement effectué par le modèle numérique de prévision de MétéoSuisse ; mais, en raison des grandes incertitudes liées à la quantification des événements extrêmes, il a été décidé qu'une approche parallèle de nature statistique pourrait compléter l'information disponible. Ainsi, nous avons adapté la méthode des analogues, qui est une technique de prévision statistique des précipitations, au contexte alpin du bassin d'étude. Pour ce faire, plusieurs paramétrisations de la méthode ont été documentées et calibrées. Afin de prendre en main la méthode, nous avons effectué de multiples analyses paramétriques sur les variables synoptiques, mais également sur la constitution de groupements pluviométriques. Une partie conséquente de cette étude a été consacrée à la programmation d'un logiciel de prévision automatique par la méthode des analogues, ainsi qu'à un outil de visualisation des résultats sous forme de cartes et graphiques. Ce logiciel, nommé Atmoswing, permet d'implémenter un grand nombre de méthodes différentes de prévision par analogie. L'outil est opérationnel depuis mi-2011 et nous a permis de confirmer l'intérêt de la prévision par analogie. La méthode étant ici appliquée à un nouveau contexte, un grand nombre de variables synoptiques ont été évaluées. Nous avons alors confirmé l'intérêt des deux niveaux d'analogie sur la circulation atmosphérique et sur le flux d'humidité, tout en apportant des améliorations à celles-ci. Il en résulte des paramétrisations présentant des scores de performance supérieurs aux méthodes de référence considérées. Nous avons également évalué d'autres améliorations, comme l'introduction d'une fenêtre temporelle glissante afin de rechercher de meilleures analogies synoptiques à d'autres heures de la journée, ce qui s'est avéré intéressant, tout comme une prévision infrajournalière à pas de temps de 6 h. Finalement, nous avons introduit une technique d'optimisation globale, les algorithmes génétiques, capable de calibrer la méthode des analogues en considérant tous les paramètres des différents niveaux d'analogie de manière conjointe. Avec cette technique, nous pouvons nous approcher objectivement d'une paramétrisation optimale. Le choix des niveaux atmosphériques et des fenêtres temporelles et spatiales étant automatisé, cette technique peut engendrer un gain de temps, même si elle est relativement exigeante en calculs. Nous avons ainsi pu améliorer la méthode des analogues, et y ajouter de nouveaux degrés de liberté, notamment des fenêtres spatiales et des pondérations différenciées selon les niveaux atmosphériques retenus.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Contexte : Les étudiants de 4° année des études de médecine à la faculté de biologie et de médecine de Lausanne bénéficient d'un enseignement des habiletés à la communication médecin-malade, ayant recours à un patient simulé joué par un comédien. But : Évaluer la pertinence de cette méthode active dans l'optique de renforcer cet enseignement dans le curriculum. Méthodes : Un questionnaire demande aux étudiants d'apprécier leurs apprentissages, ainsi que le dispositif d'enseignement. Un autre questionnaire évalue les compétences de l'étudiant qui mène l'entretien par l'étudiant lui-même (étudiant actif), par les étudiants observateurs, par l'enseignant et par le patient simulé. Résultats : Ce dispositif d'enseignement est apprécié des étudiants et permet aux étudiants qui ont mené l'entretien et aux étudiants observateurs d'en tirer un bénéfice. Les étudiants actifs ont tendance à évaluer leurs compétences d'entretien plus négativement que ne le font l'enseignant, le comédien et les étudiants observateurs .Conclusion : Ce dispositif d'enseignement est perçu comme pertinent par l'ensemble des participants, mais devrait être renforcé pour donner à chaque étudiant l'occasion de participer activement à l'entrevue simulée. -- Context: 4th year medicine students at the Faculty of Biology and Medicine of Lausanne were taught to develop patient-doctor communication skills, using a simulated patient played by an actor. Objective: To assess the relevance of this active method in the perspective of reinforcing this teaching approach in the curriculum. Method: This new form of teaching was assessed by questionnaires filled by all participants, i.e. students involved in the communication (active student), students who were bystanders (observer students), the tutor, as well as the actor. Results: This teaching approach was appreciated from all students, active and observer, allowing them to gain benefit from the interview on communication skills acquirement. The active students assessed their communication skills more negatively than did the teacher, the actor and the observer students. Conclusion: This teaching method seems to be relevant for all participants and should be reinforced to give the opportunity for each student to participate as an active student.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Résumé La réalisation d'une seconde ligne de métro (M2) dès 2004, passant dans le centre ville de Lausanne, a été l'opportunité de développer une méthodologie concernant des campagnes microgravimétriques dans un environnement urbain perturbé. Les corrections topographiques prennent une dimension particulière dans un tel milieu, car de nombreux objets non géologiques d'origine anthropogénique comme toutes sortes de sous-sols vides viennent perturber les mesures gravimétriques. Les études de génie civil d'avant projet de ce métro nous ont fournis une quantité importante d'informations cadastrales, notamment sur les contours des bâtiments, sur la position prévue du tube du M2, sur des profondeurs de sous-sol au voisinage du tube, mais aussi sur la géologie rencontré le long du corridor du M2 (issue des données lithologiques de forages géotechniques). La planimétrie des sous-sols a été traitée à l'aide des contours des bâtiments dans un SIG (Système d'Information Géographique), alors qu'une enquête de voisinage fut nécessaire pour mesurer la hauteur des sous-sols. Il a été alors possible, à partir d'un MNT (Modèle Numérique de Terrain) existant sur une grille au mètre, de mettre à jour celui ci avec les vides que représentent ces sous-sols. Les cycles de mesures gravimétriques ont été traités dans des bases de données Ac¬cess, pour permettre un plus grand contrôle des données, une plus grande rapidité de traitement, et une correction de relief rétroactive plus facile, notamment lorsque des mises à jour de la topographie ont lieu durant les travaux. Le quartier Caroline (entre le pont Bessières et la place de l'Ours) a été choisi comme zone d'étude. Le choix s'est porté sur ce quartier du fait que, durant ce travail de thèse, nous avions chronologiquement les phases pré et post creusement du tunnel du M2. Cela nous a permis d'effectuer deux campagnes gravimétriques (avant le creu¬sement durant l'été 2005 et après le creusement durant l'été 2007). Ces réitérations nous ont permis de tester notre modélisation du tunnel. En effet, en comparant les mesures des deux campagnes et la réponse gravifique du modèle du tube discrétisé en prismes rectangulaires, nous avons pu valider notre méthode de modélisation. La modélisation que nous avons développée nous permet de construire avec détail la forme de l'objet considéré avec la possibilité de recouper plusieurs fois des interfaces de terrains géologiques et la surface topographique. Ce type de modélisation peut s'appliquer à toutes constructions anthropogéniques de formes linéaires. Abstract The realization of a second underground (M2) in 2004, in downtown Lausanne, was the opportunity to develop a methodology of microgravity in urban environment. Terrain corrections take on special meaning in such environment. Many non-geologic anthropogenic objects like basements act as perturbation of gravity measurements. Civil engineering provided a large amount of cadastral informations, including out¬lines of buildings, M2 tube position, depths of some basements in the vicinity of the M2 corridor, and also on the geology encountered along the M2 corridor (from the lithological data from boreholes). Geometry of basements was deduced from building outlines in a GIS (Geographic Information System). Field investigation was carried out to measure or estimate heights of basements. A DEM (Digital Elevation Model) of the city of Lausanne is updated from voids of basements. Gravity cycles have been processed in Access database, to enable greater control of data, enhance speed processing, and retroactive terrain correction easier, when update of topographic surface are available. Caroline area (between the bridge Saint-Martin and Place de l'Ours) was chosen as the study area. This area was in particular interest because it was before and after digging in this thesis. This allowed us to conduct two gravity surveys (before excavation during summer 2005 and after excavation during summer 2007). These re-occupations enable us to test our modélisation of the tube. Actually, by comparing the difference of measurements between the both surveys and the gravity response of our model (by rectangular prisms), we were able to validate our modeling. The modeling method we developed allows us to construct detailed shape of an object with possibility to cross land geological interfaces and surface topography. This type of modélisation can be applied to all anthropogenic structures.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les crues et les risques de débordement des barrages, notamment des digues en terre, en cas de fortes précipitations, préoccupent depuis longtemps les autorités et la population. Les études réalisées dans les dernières années ont montré que le réchauffement global du climat s'est accompagné d'une augmentation de la fréquence des fortes précipitations et des crues en Suisse et dans de nombreuses régions du globe durant le 20ème siècle. Les modèles climatiques globaux et régionaux prévoient que la fréquence des fortes précipitations devrait continuer à croître durant le 21éme siècle en Suisse et dans le monde. Cela rend les recherches actuelles sur la modélisation des pluies et des crues à une échelle fine encore plus importantes. En Suisse, pour assurer une bonne protection sur le plan humain et économique, des cartes de précipitations maximales probables (PMP) ont été réalisées. Les PMP ont été confrontées avec les précipitations extrêmes mesurées dans les différentes régions du pays. Ces PMP sont ensuite utilisées par les modèles hydrologiques pour calculer des crues maximales probables (PMF). Cette la méthode PMP-PMF nécessite toutefois un certain nombre de précautions. Si elle est appliquée d'une manière incorrecte ou sur la base de données insuffisantes, elle peut entraîner une surestimation des débits de crue, notamment pour les grands bassins et pour les régions montagneuses entraînant des surcoûts importants. Ces problèmes résultent notamment du fait que la plupart des modèles hydrologiques répartissent les précipitations extrêmes (PMP) de manière uniforme dans le temps sur l'ensemble du bassin versant. Pour remédier ce problème, cette thèse a comme objectif principal de développer un modèle hydrologique distribué appelé MPF (Modeling Precipitation Flood) capable d'estimer la PMF de manière réaliste à partir de la PMP distribuée de manière spatio-temporelle à l'aide des nuages. Le modèle développé MPF comprend trois parties importantes. Dans la première partie, les précipitations extrêmes calculées par un modèle météorologique à une méso-échelle avec une résolution horizontale de 2 km, sont réparties à une échelle locale (25 ou 50 m) de manière non-uniforme dans l'espace et dans le temps. La deuxième partie concerne la modélisation de l'écoulement de l'eau en surface et en subsurface en incluant l'infiltration et l'exfiltration. Et la troisième partie inclut la modélisation de la fonte des neiges, basée sur un calcul de transfert de chaleur. Le modèle MPF a été calibré sur des bassins versants alpins où les données de précipitations et du débit sont disponibles pour une période considérablement longue, qui inclut plusieurs épisodes de fortes pluies avec des débits élevés. À partir de ces épisodes, les paramètres d'entrée du modèle tel que la rugosité du sol et la largeur moyenne des cours d'eau dans le cas d'écoulement de surface ont pu être estimés. Suivant la même procédure, les paramètres utilisés dans la simulation des écoulements en subsurface sont également estimés indirectement, puisque des mesures directes de l'écoulement en subsurface et de l'exfiltration sont difficiles à obtenir. Le modèle de distribution spatio-temporelle de la pluie a aussi été validé en utilisant les images radar avec la structure de la pluie provoquée par un nuage supercellulaire. Les hyétogrammes obtenus sur plusieurs points du terrain sont très proches de ceux enregistrées avec les images radar. Les résultats de la validation du modèle sur les épisodes de fortes crues présentent une bonne synchronisation entre le débit simulé et le débit observé. Cette corrélation a été mesurée avec trois critères d'efficacité, qui ont tous donné des valeurs satisfaisantes. Cela montre que le modèle développé est valide et il peut être utilisé pour des épisodes extrêmes tels que la PMP. Des simulations ont été faites sur plusieurs bassins ayant comme données d'entrée la pluie de type PMP. Des conditions variées ont été utilisées, comme la situation du sol saturé, ou non-saturé, ou la présence d'une couche de neige sur le terrain au moment de la PMP, ce qui conduit à une estimation de PMF pour des scénarios catastrophiques. Enfin, les résultats obtenus montrent comment mieux estimer la valeur de la crue de sécurité des barrages, à partir d'une pluie extrême dix-millennale avec une période de retour de 10'000 ans.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Une expertise collective sur l'évaluation des risques liés aux nanomatériaux pour la population générale et pour l'environnement a identifié plusieurs centaines de produits de grande consommation contenant des nanomatériaux, présents dans notre quotidien : textiles, cosmétiques, alimentaires, équipements sportifs, matériaux de construction... Des études nouvelles suggèrent la possibilité de risques pour la santé et pour l'environnement de certains produits. Face à cette situation d'incertitude, l'Afsset recommande d'agir sans attendre au nom du principe de précaution et de 1) Rendre obligatoire la traçabilité des nanomatériaux. Cela passe par une obligation de déclaration par les industriels, 2) la mise en place un étiquetage clair qui mentionne la présence de nanomatériaux dans les produits et informe sur la possibilité de relargage à l'usage, 3) d'aller jusqu'à l'interdiction de certains usages des nanomatériaux pour lesquels l'utilité est faible par rapport aux dangers potentiels, 4) l'harmonisation des cadres réglementaires français et européens pour généraliser les meilleures pratiques : déclaration, autorisation, substitution. En particulier, une révision de REACh s'impose pour prendre en compte les nanomatériaux manufacturés de manière spécifique et quel que soit leur tonnage. L'expertise fait également des recommandations pour construire une méthode renouvelée d'évaluation des risques sanitaires qui soit adaptée aux spécificités des nanomatériaux. Pour cela l'Afsset a testé les méthodologies classiques d'évaluation des risques sur 4 produits particuliers et courants : la chaussette antibactérienne (nanoparticules d'argent), le ciment autonettoyant et le lait solaire (nanoparticules de dioxyde de titane), la silice alimentaire à l'état nanométrique. Ces 4 produits représentent bien les voies d'exposition de l'homme (cutanée, inhalation, ingestion) et la possibilité de dispersion environnementale. Ces travaux font apparaître une urgence à faire progresser les connaissances sur les expositions et les dangers potentiels des nanomatériaux. Aujourd'hui, seuls 2% des études publiées sur les nanomatériaux concernent leurs risques pour la santé et l'environnement. Le premier effort devra porter sur la normalisation des caractéristiques des nanomatériaux. Les priorités de la recherche devront cibler la toxicologie, l'écotoxicologie et la mesure des expositions. Enfin, l'Afsset prévoit de s'autosaisir pour définir en 2 ans, avec son groupe de travail, un outil simplifié d'évaluation des risques. Il s'agit d'une grille de cotation des risques qui permet de catégoriser les produits en plusieurs gammes de risques. Face à ce chantier considérable, une mise en réseau entre les organismes européens et internationaux pour se partager le travail est nécessaire. Elle a commencé autour de l'OCDE qui coordonne des travaux d'évaluation des risques et de l'ISO qui travaille à la mise en place de nouvelles normes. [Auteurs]

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This paper reviews the literature on clinical signs such as imitation behavior, grasp reaction, manipulation of tools, utilization behavior, environmental dependency, hyperlexia, hypergraphia and echolalia. Some aspects of this semiology are of special interest because they refer to essential notions such as free-will and autonomy.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dans l'environnement actuel fortement évolutif, les questions relatives à la formation continue sont plus que jamais essentielles. Nombre de publications les abordent toutefois uniquement sous un angle prescriptif, sans considérer le comportement réel du personnel en matière de formation continue. La recherche dont il est question dans cet article vise à mettre en évidence les stratégies que les agents publics suisses mettent en oeuvre, au sein d'organisations soumises à une managérialisation croissante, pour atteindre leurs propres objectifs de formation. Sur la base des analyses effectuées, la conclusion esquisse certains enjeux plus fondamentaux relatifs à l'avenir de la formation continue dans les services publics suisses, enjeux à notre sens largement transposables au sein d'autres pays de l'OCDE (Organisation de coopération et de développement économiques).