248 resultados para développement économique local
Resumo:
Résumé Contexte et objectifs Les activités de recherche appliquée et développement (Ra&D) font partie du mandat de prestations des hautes écoles spécialisées (HES) prescrit par la loi. Néanmoins la tradition, le type et l'importance de la recherche varient fortement en fonction des domaines d'études. Il en va de même pour les liens avec les autres domaines de prestations que sont l'enseignement, la formation continue et les prestations de services. Les activités de Ra&D dans chaque HES s'inscrivent dans la tension entre l'orientation pratique (qui signifie le plus souvent une orientation vers le marché économique) et l'orientation vers la science (signe de leur rattachement au système scientifique). Il en découle des conflits d'intérêts entre les critères de qualité du « succès sur le marché » et de la « réputation scientifique ». En 2005, sur mandat de la Commission pour la technologie et l'innovation (CTI), B. Lepori et L. Attar (2006) ont mené une étude visant à examiner plus particulièrement les stratégies de recherche et l'organisation de la recherche au sein des hautes écoles spécialisées. Aujourd'hui, six ans plus tard, la phase de mise sur pied est en grande partie terminée. En lançant une nouvelle étude, l'Office fédéral de la formation professionnelle et de la technologie (OFFT) et la Commission fédérale des hautes écoles spécialisées (CFHES) souhaitaient faire le point sur les activités de recherche des HES, c'està- dire examiner les résultats des stratégies et de l'organisation de cette phase. Cette étude s'articule principalement autour de l'état actuel de la recherche, de ses problèmes et de ses perspectives. Structure de l'étude La recherche dans les HES se caractérise par différents facteurs d'influence (cultures disciplinaires, traditions, ancrage dans les régions linguistiques, structures organisationnelles, gouvernance, stratégies de positionnement, personnel, etc.). Dans la présente étude, ces facteurs sont systématiquement examinés selon deux dimensions: le « domaine d'études » et la « haute école spécialisée». L'analyse repose notamment sur l'exploitation de documents et de données. Mais cette étude se fonde principalement sur les entretiens menés avec les représentants des HES à différents niveaux de responsabilités. Les hautes écoles spécialisées (HES) Les entretiens avec les directions des HES ainsi que l'exploitation des données et des documents mettent en évidence la grande diversité des sept HES suisses de droit public dans leur structure, leurs combinaisons de domaines d'études et leurs orientations. Les modes de financement de la recherche varient fortement entre les HES. Concrètement, les sources de financement ne sont pas les mêmes d'une HES à l'autre (contributions des organes responsables, fonds de tiers, etc.). Les degrés et formes du pilotage concernant les contenus de la recherche diffèrent également dans une large mesure (définition de pôles de recherche, soutien cumulatif à l'acquisition de fonds de tiers), de même que les stratégies en matière de recrutement et d'encouragement du personnel. La politique de chaque HES implique des tensions et des problèmes spécifiques. Les domaines d'études Sur les dix domaines d'études, quatre ont été choisis à titre d'exemples pour des études approfondies : Technique et technologies de l'information (TI), Economie et services, Travail social, Musique, arts de la scène et autres arts. Chaque domaine d'études a été examiné à chaque fois dans deux HES. Cette méthode permet de relever les différences et les similitudes. Les résultats confirment qu'il existe des différences importantes à bien des égards entre les domaines d'études évalués. Ces différences concernent la position dans le système des hautes écoles, le volume des activités de recherche, l'importance de la recherche au sein des HES, la tradition, l'identité et l'orientation. Elles se retrouvent par ailleurs dans les buts et la place de la Ra&D dans les domaines d'études concernés. Il ressort toutefois qu'il n'y a pas lieu de parler d'une dichotomie entre les « anciens » et les « nouveaux » domaines d'études : Technique, économie et design (TED) d'une part et Santé, social et arts (SSA) d'autre part. Il semble plus pertinent de désigner le domaine d'études 4/144 Technique et TI comme le domaine dominant auquel se référent le pilotage et le financement des HES, que ce soit implicitement ou explicitement. Cadre homogène et espaces hétérogènes Le pilotage et le financement de la Ra&D au sein des hautes écoles spécialisées s'inscrivent dans un modèle-cadre fixé à l'échelle fédérale et principalement axé sur le domaine d'études Technique. Ce modèle-cadre se caractérise par un apport élevé de fonds de tiers (notamment les subventions de la CTI et les fonds privés) et des incitations en faveur de ce mode de financement, par une orientation vers le marché et par un haut degré d'autonomie des établissements partenaires/départements et instituts. Par comparaison avec les hautes écoles universitaires, les HES affichent notamment un faible niveau de financement de base dans le secteur Ra&D. Cet état de fait est certes compatible avec la forme actuelle du financement par la CTI, mais pas avec les règles de financement du Fonds national suisse (FNS). Un financement principalement basé sur les fonds de tiers signifie par ailleurs que l'orientation du contenu de la recherche et la définition de critères de qualité sont confiées à des instances externes, notamment aux mandants et aux institutions d'encouragement de la recherche. Il apparaît en dernier lieu qu'un tel modèle-cadre ne favorise pas les politiques visant à la constitution de pôles de recherche, l'obtention d'une taille critique, et la mise en place d'une coordination. Ces résultats concernent tous les domaines d'études sans avoir pour autant les mêmes conséquences : les domaines d'études se prêtant dans une faible mesure à l'acquisition de fonds de tiers sur des marchés économiques (dans cette étude, il s'agit essentiellement de la Musique, arts de la scène et autres arts, mais également du Travail social dans certains cas) ont plus de difficultés à répondre aux attentes énoncées en termes de succès et de profit. Les HES modifient plus ou moins le modèle-cadre en élaborant elles-mêmes des modèles d'organisation qui prennent en compte leur combinaison de domaines d'études et soutiennent leurs propres orientations et positionnements stratégiques. La combinaison de domaines d'études hétérogènes et de politiques différentes au sein des HES se traduit par une complexité du système des HES, beaucoup plus importante que ce que généralement supposée. De plus, au regard des connaissances lacunaires sur les structures « réelles » de gouvernance des HES, il n'est quasiment pas possible de comparer directement les hautes écoles spécialisées entre elles. Conclusions et recommandations Le principal constat qui ressort d'un ensemble de conclusions et de recommandations des auteurs est que le secteur Ra&D dans les HES doit être plus explicitement évalué en fonction des spécificités des domaines d'études, à savoir du rôle de la recherche pour l'économie et la société, des différences entre les marchés (économiques) correspondants et de l'importance de la Ra&D pour les objectifs visés. L'étude montre clairement qu'il n'y a pas à proprement parler une seule et unique recherche au sein des hautes écoles spécialisées et que la notion de « recherche appliquée » ne suffit ni comme description ni, par conséquence, comme critère d'identité commun. Partant de ce constat, nous recommandons de revoir le mode de financement de la recherche dans les HES et d'approfondir le débat sur les structures de gouvernance sur l'orientation de la Ra&D (et notamment sur les critères de qualité appliqués), de même que sur l'autonomie et la coordination. Les recommandations constituent des points de discussion et n'engagent aucunement l'OFFT ou la CFHES.
Resumo:
Notre étude consiste en une recherche longitudinale pour laquelle une cohorte d'élèves a été suivie depuis la Grande Section de l'école maternelle française (élèves de 5-6 ans) jusqu'au Cours Élémentaire 1re année de l'école élémentaire française (élèves de 7-8 ans) dans des situations ordinaires de classe. À ces niveaux scolaires, l'un des principaux objectifs du curriculum est l'apprentissage de la lecture. Nous considérons que l'élève construit les compétences de lecture à acquérir, i.e. les compétences caractérisant son développement potentiel, en s'appuyant sur les compétences caractérisant son développement actuel (Vygotski, 1934/1997). Lorsqu'il apprend à lire, l'élève a à sa disposition des moyens sémiotiques relatifs à la connaissance des objets et leurs usages, ainsi qu'aux gestes et leur signification (Moro & Rodriguez, 2005), ce que nous appelons globalement la matérialité. En conséquence, dans cette recherche, nous faisons l'hypothèse que ces premières habiletés relatives à la matérialité, constituent une ressource dans les situations d'enseignement- apprentissage de la lecture. Nous réalisons une étude de cas dont le recueil des données, à caractère ethnographique, est constitué de moments de classe enregistrés en vidéo, et ce, quatre fois par année scolaire. Ces douze enregistrements vidéo sont complétés par deux entretiens semi-directifs et un entretien d'auto- confrontation ; ils sont aussi mis en lien avec les Instructions officielles (programmes scolaires). L'analyse est à la fois macrogénétique et microgénétique. Pour chaque observation, concernant l'analyse macrogénétique, nous réalisons le synopsis à partir duquel nous sélectionnons des épisodes significatifs porteurs de matérialité. Les épisodes significatifs sont constitués des événements remarquables dont les analyses microgénétiques nécessitent l'utilisation d'outils, à savoir les tableaux des matérialités et les photogrammes. Notre étude montre que la matérialité permet aux élèves de devenir lecteurs et que les formes de cette matérialité changent en fonction de l'avancée des acquisitions des élèves et des dimensions de la lecture (code et compréhension) à apprendre. - Our research consists of a longitudinal study in which one group of pupils in ordinary classroom situations has been followed from the top level of French pre-elementary school (5- to 6 year-old pupils) to the second level of French primary school (7- to 8 year-old pupils). For these three school grades, one of the main objectives in the curriculum is learning to read. We consider that pupils build their new reading skills, i.e. the skills characterizing their potential development, by relying on skills characterizing their actual development (Vygotski, 1934/1997). When learning to read, pupils yet have at their disposal semiotic abilities related to knowledge both of material objects and their uses, and of basic gestures and their meaning (Moro & Rodriguez, 2005), all of this we sum up under the term of materiality. Consequently, in our research, we make the hypothesis that the children's basic abilities related to materiality constitute a resource in teaching-learning situations. We have chosen to carry out a case study. The data collected consist of videos of class sequences carried out four times a year for three years. These twelve videos are supplemented by two semi- structured interviews with the teacher, one "self-confronting" interview in which the teacher is brought to discuss her actions and by the analysis of the ministry's school curricula. Our analysis is both macrogenetic and microgenetic. For each teaching sequence, on the level of macrogenetic analysis, we have made up the synopsis from which we have selected significant episodes in terms of materiality. The significant episodes are composed of remarkable events the microgenetic analysis of which requires the use of tools such as materiality boards and photograms. Our study shows that materiality enables pupils to develop reading skills and that the forms that materiality takes on change according to the pupils' acquisition progress and the aspects of reading (code and comprehension) still to be learned.
Resumo:
Les coûts de traitement de certains patients s'avèrent extrêmement élevés, et peuvent faire soupçonner une prise en charge médicale inadéquate. Comme I'évolution du remboursement des prestations hospitalières passe à des forfaits par pathologie, il est essentiel de vérifier ce point, d'essayer de déterminer si ce type de patients peut être identifié à leur admission, et de s'assurer que leur devenir soit acceptable. Pour les années 1995 et 1997. les coûts de traitement dépassant de 6 déviations standard le coût moyen de la catégorie diagnostique APDRG ont été identifiés, et les dossiers des 50 patients dont les coûts variables étaient les plus élevés ont été analysés. Le nombre total de patients dont I'hospitalisation a entraîné des coûts extrêmes a passé de 391 en 1995 à 328 patients en 1997 (-16%). En ce qui concerne les 50 patients ayant entraîné les prises en charge les plus chères de manière absolue, les longs séjours dans de multiples services sont fréquents, mais 90% des patients sont sortis de l'hôpital en vie, et près de la moitié directement à domicile. Ils présentaient une variabilité importante de diagnostics et d'interventions, mais pas d'évidence de prise en charge inadéquate. En conclusion, les patients qualifiés de cas extrêmes sur un plan économique, ne le sont pas sur un plan strictement médical, et leur devenir est bon. Face à la pression qu'exercera le passage à un mode de financement par pathologie, les hôpitaux doivent mettre au point un système de revue interne de I'adéquation des prestations fournies basées sur des caractéristiques cliniques, s'ils veulent garantir des soins de qualité. et identifier les éventuelles prestations sous-optimales qu'ils pourraient être amenés à délivrer. [Auteurs] Treatment costs for some patients are extremely high and might let think that medical care could have been inadequate. As hospital financing systems move towards reimbursement by diagnostic groups, it is essential to assess whether inadequate care is provided, to try to identify these patients upon admission, and make sure that their outcome is good. For the years 1995 and 1997, treatment costs exceeding by 6 standard deviations the average cost of their APDRG category were identified, and the charts of the 50 patients with the highest variable costs were analyzed. The total number of patients with such extreme costs diminished from 391 in 1995 to 328 in 1997 (-16%). For the 50 most expensive patients, long stays in several services were frequent, but 90% of these patients left the hospital alive, and about half directly to their home. They presented an important variation in diagnoses and operations, but no evidence for inadequate care. Thus, patients qualified as extreme from an economic perspective cannot be qualified as such from a medical perspective, and their outcome is good. To face the pressure linked with the change in financing system, hospitals must develop an internal review system for assessing the adequacy of care, based on clinical characteristics, if they want to guarantee good quality of care and identify potentially inadequate practice.
Resumo:
Purpose: We investigate a new heat delivery technique for the local treatment of solid tumors. The technique involves injecting a formulation that solidifies to form an implant in situ. This implant entraps superparamagnetic iron oxide nanoparticles (SPIONs) embedded in silica microbeads for magnetically induced moderate hyperthermia. Particle entrapment prevents phagocytosis and distant migration of SPIONs. The implant can be repeatedly heated by magnetic induction. Methods: We evaluated heating and treatment efficacies by means of thermometry and survival studies in nude mice carrying subcutaneous human colocarcinomas. At day 1, we injected the formulation into the tumor. At day 2, a single 20-min hyperthermia treatment was delivered by 141-kHz magnetic induction using field strengths of 9 to 12 mT under thermometry. Results: SPIONs embedded in silica microbeads were effectively confined within the implant at the injection site. Heat-induced necro-apoptosis was assessed by histology on day 3. On average, 12 mT resulted in tumor temperature of 47.8 degrees C, and over 70% tumor necrosis that correlated to the heat dose (AUC = 282 degrees C.min). In contrast, a 9-mT field strength induced tumoral temperature of 40 degrees C (AUC = 131 degrees C.min) without morphologically identifiable necrosis. Survival after treatment with 10.5 or 12 mT fields was significantly improved compared to non-implanted and implanted controls. Median survival times were 27 and 37 days versus 12 and 21 days respectively. Conclusion: Five of eleven mice (45%) of the 12 mT group survived one year without any tumor recurrence, holding promise for tumor therapy using magnetically induced moderate hyperthermia through injectable implants.
Resumo:
PURPOSE: To assess the patterns of failure in the treatment of early-stage squamous cell carcinoma of the glottic larynx. PATIENTS AND METHODS: Between 1983-2000, 122 consecutive patients treated for early laryngeal cancer (UICC T1N0 and T2N0) by radical radiation therapy (RT) were retrospectively studied. Male-to-female ratio was 106 : 16, and median age 62 years (35-92 years). There were 68 patients with T1a, 18 with T1b, and 36 with T2 tumors. Diagnosis was made by biopsy in 104 patients, and by laser vaporization or stripping in 18. Treatment planning consisted of three-dimensional (3-D) conformal RT in 49 (40%) patients including nine patients irradiated using arytenoid protection. A median dose of 70 Gy (60-74 Gy) was given (2 Gy/fraction) over a median period of 46 days (21-79 days). Median follow-up period was 85 months. RESULTS: The 5-year overall, cancer-specific, and disease-free survival amounted to 80%, 94%, and 70%, respectively. 5-year local control was 83%. Median time to local recurrence in 19 patients was 13 months (5-58 months). Salvage treatment consisted of surgery in 17 patients (one patient refused salvage and one was inoperable; total laryngectomy in eleven, and partial laryngectomy or cordectomy in six patients). Six patients died because of laryngeal cancer. Univariate analyses revealed that prognostic factors negatively influencing local control were anterior commissure extension, arytenoid protection, and total RT dose < 66 Gy. Among the factors analyzed, multivariate analysis (Cox model) demonstrated that anterior commissure extension, arytenoid protection, and male gender were the worst independent prognostic factors in terms of local control. CONCLUSION: For early-stage laryngeal cancer, outcome after RT is excellent. In case of anterior commissure extension, surgery or higher RT doses are warranted. Because of a high relapse risk, arytenoid protection should not be attempted.
Resumo:
Methods like Event History Analysis can show the existence of diffusion and part of its nature, but do not study the process itself. Nowadays, thanks to the increasing performance of computers, processes can be studied using computational modeling. This thesis presents an agent-based model of policy diffusion mainly inspired from the model developed by Braun and Gilardi (2006). I first start by developing a theoretical framework of policy diffusion that presents the main internal drivers of policy diffusion - such as the preference for the policy, the effectiveness of the policy, the institutional constraints, and the ideology - and its main mechanisms, namely learning, competition, emulation, and coercion. Therefore diffusion, expressed by these interdependencies, is a complex process that needs to be studied with computational agent-based modeling. In a second step, computational agent-based modeling is defined along with its most significant concepts: complexity and emergence. Using computational agent-based modeling implies the development of an algorithm and its programming. When this latter has been developed, we let the different agents interact. Consequently, a phenomenon of diffusion, derived from learning, emerges, meaning that the choice made by an agent is conditional to that made by its neighbors. As a result, learning follows an inverted S-curve, which leads to partial convergence - global divergence and local convergence - that triggers the emergence of political clusters; i.e. the creation of regions with the same policy. Furthermore, the average effectiveness in this computational world tends to follow a J-shaped curve, meaning that not only time is needed for a policy to deploy its effects, but that it also takes time for a country to find the best-suited policy. To conclude, diffusion is an emergent phenomenon from complex interactions and its outcomes as ensued from my model are in line with the theoretical expectations and the empirical evidence.Les méthodes d'analyse de biographie (event history analysis) permettent de mettre en évidence l'existence de phénomènes de diffusion et de les décrire, mais ne permettent pas d'en étudier le processus. Les simulations informatiques, grâce aux performances croissantes des ordinateurs, rendent possible l'étude des processus en tant que tels. Cette thèse, basée sur le modèle théorique développé par Braun et Gilardi (2006), présente une simulation centrée sur les agents des phénomènes de diffusion des politiques. Le point de départ de ce travail met en lumière, au niveau théorique, les principaux facteurs de changement internes à un pays : la préférence pour une politique donnée, l'efficacité de cette dernière, les contraintes institutionnelles, l'idéologie, et les principaux mécanismes de diffusion que sont l'apprentissage, la compétition, l'émulation et la coercition. La diffusion, définie par l'interdépendance des différents acteurs, est un système complexe dont l'étude est rendue possible par les simulations centrées sur les agents. Au niveau méthodologique, nous présenterons également les principaux concepts sous-jacents aux simulations, notamment la complexité et l'émergence. De plus, l'utilisation de simulations informatiques implique le développement d'un algorithme et sa programmation. Cette dernière réalisée, les agents peuvent interagir, avec comme résultat l'émergence d'un phénomène de diffusion, dérivé de l'apprentissage, où le choix d'un agent dépend en grande partie de ceux faits par ses voisins. De plus, ce phénomène suit une courbe en S caractéristique, poussant à la création de régions politiquement identiques, mais divergentes au niveau globale. Enfin, l'efficacité moyenne, dans ce monde simulé, suit une courbe en J, ce qui signifie qu'il faut du temps, non seulement pour que la politique montre ses effets, mais également pour qu'un pays introduise la politique la plus efficace. En conclusion, la diffusion est un phénomène émergent résultant d'interactions complexes dont les résultats du processus tel que développé dans ce modèle correspondent tant aux attentes théoriques qu'aux résultats pratiques.
Resumo:
Summary: Victims of crime are not only physical persons. Firms also experience some different forms of victimization either from outsiders or front employees. Crimes committed inside the firm are various: theft, embezzlement, fraud, fraudulent management, money laundering, vandalism etc. Assessed damage could be considerable. But in general, most of the criminological studies relating to victimization have been interested in individuals as victims. In Switzerland, to date, research on firms'victimization is simply rare and traditional research methods such as victimization survey, self-reported delinquency or controlled experiments are not very much utilized in Swiss white-collar crime studies. Thus, in order to improve the situation, we have decided to start a victimization study on white-collar crime committed in firms of the canton of Geneva. To narrow the field of research, our project seeks to apprehend white-collar crime as a series of offences committed by employees inside the firm, by fraud or deceit, aiming at an illegitimate enrichment. The phenomenon of white-collar crime perpetrated has been evaluated by examining the presence of risk factors and prevention strategies. Furthermore, the correlation between the victimization rate and some aspects of vulnerability has also been investigated. Using data collected from the victimization survey carried out in 2005, some of the key research questions are the following: - which are the types of offences committed? - Which types of measure of prevention are the most efficient to prevent such offences ? - Which type of business is more vulnerable? - Which are the risk factors? - Which is the profile of the authors? - Which are the motivations?, etc. Findings show that companies which valorize their employees and pursue a transparent management style suffer a lower victimization rate. Further, the retail sector seems to be more affected than the financial sector and big firms are more vulnerable.
Resumo:
The spontaneous activity of the brain shows different features at different scales. On one hand, neuroimaging studies show that long-range correlations are highly structured in spatiotemporal patterns, known as resting-state networks, on the other hand, neurophysiological reports show that short-range correlations between neighboring neurons are low, despite a large amount of shared presynaptic inputs. Different dynamical mechanisms of local decorrelation have been proposed, among which is feedback inhibition. Here, we investigated the effect of locally regulating the feedback inhibition on the global dynamics of a large-scale brain model, in which the long-range connections are given by diffusion imaging data of human subjects. We used simulations and analytical methods to show that locally constraining the feedback inhibition to compensate for the excess of long-range excitatory connectivity, to preserve the asynchronous state, crucially changes the characteristics of the emergent resting and evoked activity. First, it significantly improves the model's prediction of the empirical human functional connectivity. Second, relaxing this constraint leads to an unrealistic network evoked activity, with systematic coactivation of cortical areas which are components of the default-mode network, whereas regulation of feedback inhibition prevents this. Finally, information theoretic analysis shows that regulation of the local feedback inhibition increases both the entropy and the Fisher information of the network evoked responses. Hence, it enhances the information capacity and the discrimination accuracy of the global network. In conclusion, the local excitation-inhibition ratio impacts the structure of the spontaneous activity and the information transmission at the large-scale brain level.
Resumo:
Le bassin du Rhône à l'amont du Léman peut être sujet à de fortes précipitations en mesure de provoquer des crues significatives. L'objectif du projet MINERVE dans lequel s'inscrit le présent travail consiste à fournir des outils pour la prévision et la gestion des crues par des actions préventives sur les aménagements hydroélectriques à accumulation. Pour satisfaire ce dernier, il est nécessaire de prévoir au mieux les cumuls de précipitations pour les jours suivants. Ceci est actuellement effectué par le modèle numérique de prévision de MétéoSuisse ; mais, en raison des grandes incertitudes liées à la quantification des événements extrêmes, il a été décidé qu'une approche parallèle de nature statistique pourrait compléter l'information disponible. Ainsi, nous avons adapté la méthode des analogues, qui est une technique de prévision statistique des précipitations, au contexte alpin du bassin d'étude. Pour ce faire, plusieurs paramétrisations de la méthode ont été documentées et calibrées. Afin de prendre en main la méthode, nous avons effectué de multiples analyses paramétriques sur les variables synoptiques, mais également sur la constitution de groupements pluviométriques. Une partie conséquente de cette étude a été consacrée à la programmation d'un logiciel de prévision automatique par la méthode des analogues, ainsi qu'à un outil de visualisation des résultats sous forme de cartes et graphiques. Ce logiciel, nommé Atmoswing, permet d'implémenter un grand nombre de méthodes différentes de prévision par analogie. L'outil est opérationnel depuis mi-2011 et nous a permis de confirmer l'intérêt de la prévision par analogie. La méthode étant ici appliquée à un nouveau contexte, un grand nombre de variables synoptiques ont été évaluées. Nous avons alors confirmé l'intérêt des deux niveaux d'analogie sur la circulation atmosphérique et sur le flux d'humidité, tout en apportant des améliorations à celles-ci. Il en résulte des paramétrisations présentant des scores de performance supérieurs aux méthodes de référence considérées. Nous avons également évalué d'autres améliorations, comme l'introduction d'une fenêtre temporelle glissante afin de rechercher de meilleures analogies synoptiques à d'autres heures de la journée, ce qui s'est avéré intéressant, tout comme une prévision infrajournalière à pas de temps de 6 h. Finalement, nous avons introduit une technique d'optimisation globale, les algorithmes génétiques, capable de calibrer la méthode des analogues en considérant tous les paramètres des différents niveaux d'analogie de manière conjointe. Avec cette technique, nous pouvons nous approcher objectivement d'une paramétrisation optimale. Le choix des niveaux atmosphériques et des fenêtres temporelles et spatiales étant automatisé, cette technique peut engendrer un gain de temps, même si elle est relativement exigeante en calculs. Nous avons ainsi pu améliorer la méthode des analogues, et y ajouter de nouveaux degrés de liberté, notamment des fenêtres spatiales et des pondérations différenciées selon les niveaux atmosphériques retenus.