999 resultados para Apprentissage de contenu
Resumo:
L'échec des tentatives de juguler les émissions globales de gaz à effet de serre a mené au renforcement d'un discours sur la nécessité de l'adaptation au changement climatique. Il est de plus souvent considéré qu'une transformation de l'action publique serait nécessaire afin de réduire les impacts de grande magnitude qui découlent du changement climatique. Depuis les années 2000, on constate ainsi un développement des activités étatiques dans le domaine de l'adaptation. Cette évolution suscite une question centrale: quels sont les effets réels que provoque l'intégration de l'adaptation au changement climatique dans la conduite des politiques publiques et comment expliquer les éventuelles limites à ces processus? La littérature spécialisée sur l'adaptation fait preuve d'un certain réductionnisme à l'égard de la complexité de l'action publique en considérant que lorsque la capacité d'agir contre le problème de la vulnérabilité au changement climatique existe, toute forme d'inaction publique serait un déficit de mise en oeuvre provoqué par des barrières à l'action qu'il faudrait lever. A contrario, cette thèse considère l'adaptation comme une norme de politique publique dont l'intégration est susceptible de provoquer des changements institutionnels dans la forme et le contenu des politiques publiques, et des effets concrets sur les acteurs vulnérables au changement climatique. Afin de mesurer les effets de l'intégration politique de l'adaptation, un concept est formulé sur la base d'un idéal-type du régime institutionnel adaptatif, soit une construction théorique des régulations qu'impliquerait une gestion cohérente du système socioécologique complexe dans lequel s'insère le système climatique. L'auteur propose un cadre d'analyse empirique des processus publics d'adaptation qu'il applique ensuite à deux États: l'Inde (politique agricole) et la Suisse (politique du tourisme hivernal), avec pour objectif de repérer des mécanismes explicatifs communs aux effets de l'intégration dans ces deux contextes extrêmement dissemblables. L'étude débouche sur six résultats qui constituent une contribution appréciable à la littérature. L'auteur montre: premièrement, que l'intégration politique de l'adaptation conduit à une production d'actes symboliques, qui s'explique notamment par le manque de pression publique à agir sur le problème de la vulnérabilité au changement climatique; deuxièmement, que le processus d'intégration agit sur la réalité sociale par le biais d'un mécanisme d'attribution de ressources publiques à certains acteurs du champ politique; troisièmement, que les groupes sociaux qui bénéficient de ces ressources publiques ne sont pas nécessairement les plus vulnérables, mais ceux détenant les ressources d'action nécessaires à l'activation de l'intervention publique; quatrièmement, que l'absence de clefs de répartition des coûts de l'adaptation, de procédures de monitoring et d'instruments d'action contraignants limitent les effets des programmes publics d'adaptation; cinquièmement, que la faible articulation institutionnelle entre objectif d'adaptation et objectifs de protection de l'environnement accentue le risque de processus d'adaptation produisant des externalités environnementales; sixièmement, que les transformations dont la littérature souligne la nécessité ne sont pas nécessairement faisables ni désirables. Sur la base de cette analyse, cette thèse s'écarte de la littérature dominante en concluant que les processus publics d'adaptation ne souffrent pas d'un déficit de mise en oeuvre, mais d'un déficit de légitimité lié à leurs effets pernicieux. L'auteur formule alors trois recommandations pour améliorer la légitimité de ces politiques et trois questions ouvertes sur le futur politique de l'adaptation.
Resumo:
The 2009 news in medicine regarding dependence confirm the bio-psycho-social field of addiction medicine and psychiatry. First a statement is made about the risk of cardiac arythmy in opioid substitution treatments. Then a review of the treatment of C hepatitis shows its importance in an addicted population. In the field of cognitive neuroscience, progress has been made in the knowledge of "craving" and of its endophenotypical components. Electronic medias related disorders are on the border of addiction: a case study is exploring this new domain. At last, recent datas are presented on the relationship between cannabis and psychosis. Les nouveautés en médecine 2009 concernant les dépendances confirment l'étendue du champ bio-psychosocial de la médecine et de la psychiatrie de l'addiction. Tout d'abord un point de situation est fait sur le risque d'arythmie cardiaque dans les traitements de substitution opiacée. Puis une revue de l'actualité du traitement de l'hépatite C dans la toxicodépendance en montre la pertinence. Sur le plan de la recherche plus fondamentale, les neurosciences cognitives progressent dans l'approche de la nature du craving et de ses composantes endophénotypiques. Les troubles liés aux médias électroniques illustrent les frontières de l'addiction : une étude de cas vient en explorer le contenu. Enfin, des données récentes sur les rapports entre cannabis et psychoses sont présentées.
Resumo:
This thesis focuses on theoretical asset pricing models and their empirical applications. I aim to investigate the following noteworthy problems: i) if the relationship between asset prices and investors' propensities to gamble and to fear disaster is time varying, ii) if the conflicting evidence for the firm and market level skewness can be explained by downside risk, Hi) if costly learning drives liquidity risk. Moreover, empirical tests support the above assumptions and provide novel findings in asset pricing, investment decisions, and firms' funding liquidity. The first chapter considers a partial equilibrium model where investors have heterogeneous propensities to gamble and fear disaster. Skewness preference represents the desire to gamble, while kurtosis aversion represents fear of extreme returns. Using US data from 1988 to 2012, my model demonstrates that in bad times, risk aversion is higher, more people fear disaster, and fewer people gamble, in contrast to good times. This leads to a new empirical finding: gambling preference has a greater impact on asset prices during market downturns than during booms. The second chapter consists of two essays. The first essay introduces a foramula based on conditional CAPM for decomposing the market skewness. We find that the major market upward and downward movements can be well preadicted by the asymmetric comovement of betas, which is characterized by an indicator called "Systematic Downside Risk" (SDR). We find that SDR can efafectively forecast future stock market movements and we obtain out-of-sample R-squares (compared with a strategy using historical mean) of more than 2.27% with monthly data. The second essay reconciles a well-known empirical fact: aggregating positively skewed firm returns leads to negatively skewed market return. We reconcile this fact through firms' greater response to negative maraket news than positive market news. We also propose several market return predictors, such as downside idiosyncratic skewness. The third chapter studies the funding liquidity risk based on a general equialibrium model which features two agents: one entrepreneur and one external investor. Only the investor needs to acquire information to estimate the unobservable fundamentals driving the economic outputs. The novelty is that information acquisition is more costly in bad times than in good times, i.e. counter-cyclical information cost, as supported by previous empirical evidence. Later we show that liquidity risks are principally driven by costly learning. Résumé Cette thèse présente des modèles théoriques dévaluation des actifs et leurs applications empiriques. Mon objectif est d'étudier les problèmes suivants: la relation entre l'évaluation des actifs et les tendances des investisseurs à parier et à crainadre le désastre varie selon le temps ; les indications contraires pour l'entreprise et l'asymétrie des niveaux de marché peuvent être expliquées par les risques de perte en cas de baisse; l'apprentissage coûteux augmente le risque de liquidité. En outre, des tests empiriques confirment les suppositions ci-dessus et fournissent de nouvelles découvertes en ce qui concerne l'évaluation des actifs, les décisions relatives aux investissements et la liquidité de financement des entreprises. Le premier chapitre examine un modèle d'équilibre où les investisseurs ont des tendances hétérogènes à parier et à craindre le désastre. La préférence asymétrique représente le désir de parier, alors que le kurtosis d'aversion représente la crainte du désastre. En utilisant les données des Etats-Unis de 1988 à 2012, mon modèle démontre que dans les mauvaises périodes, l'aversion du risque est plus grande, plus de gens craignent le désastre et moins de gens parient, conatrairement aux bonnes périodes. Ceci mène à une nouvelle découverte empirique: la préférence relative au pari a un plus grand impact sur les évaluations des actifs durant les ralentissements de marché que durant les booms économiques. Exploitant uniquement cette relation générera un revenu excédentaire annuel de 7,74% qui n'est pas expliqué par les modèles factoriels populaires. Le second chapitre comprend deux essais. Le premier essai introduit une foramule base sur le CAPM conditionnel pour décomposer l'asymétrie du marché. Nous avons découvert que les mouvements de hausses et de baisses majeures du marché peuvent être prédits par les mouvements communs des bêtas. Un inadicateur appelé Systematic Downside Risk, SDR (risque de ralentissement systématique) est créé pour caractériser cette asymétrie dans les mouvements communs des bêtas. Nous avons découvert que le risque de ralentissement systématique peut prévoir les prochains mouvements des marchés boursiers de manière efficace, et nous obtenons des carrés R hors échantillon (comparés avec une stratégie utilisant des moyens historiques) de plus de 2,272% avec des données mensuelles. Un investisseur qui évalue le marché en utilisant le risque de ralentissement systématique aurait obtenu une forte hausse du ratio de 0,206. Le second essai fait cadrer un fait empirique bien connu dans l'asymétrie des niveaux de march et d'entreprise, le total des revenus des entreprises positiveament asymétriques conduit à un revenu de marché négativement asymétrique. Nous décomposons l'asymétrie des revenus du marché au niveau de l'entreprise et faisons cadrer ce fait par une plus grande réaction des entreprises aux nouvelles négatives du marché qu'aux nouvelles positives du marché. Cette décomposition révélé plusieurs variables de revenus de marché efficaces tels que l'asymétrie caractéristique pondérée par la volatilité ainsi que l'asymétrie caractéristique de ralentissement. Le troisième chapitre fournit une nouvelle base théorique pour les problèmes de liquidité qui varient selon le temps au sein d'un environnement de marché incomplet. Nous proposons un modèle d'équilibre général avec deux agents: un entrepreneur et un investisseur externe. Seul l'investisseur a besoin de connaitre le véritable état de l'entreprise, par conséquent, les informations de paiement coutent de l'argent. La nouveauté est que l'acquisition de l'information coute plus cher durant les mauvaises périodes que durant les bonnes périodes, comme cela a été confirmé par de précédentes expériences. Lorsque la récession comamence, l'apprentissage coûteux fait augmenter les primes de liquidité causant un problème d'évaporation de liquidité, comme cela a été aussi confirmé par de précédentes expériences.
Resumo:
Une représentation sociale communément admise postule que le couple plurilingue et l'un de ses prolongements possibles, la vie en commun dans un pays, favorisent l'appropriation de la langue et la socialisation du partenaire alloglotte. Or, si c'est souvent le cas, il s'agit de dégager les conditions nécessaires à un tel processus positif d'apprentissage de la langue. De là découle l'intérêt d'une observation ethnographique des caractéristiques d'un mode d'apprentissage de la langue du milieu (ici, le français) qui s'actualise dans les couples plurilingues. Dans cet article je montrerai, par l'exemple d'un couple francophone/hispanophone établi en Suisse romande, comment la situation matrimoniale hétéroglotte propose un contexte spécifique à l'apprentissage de la langue. Je porterai particulièrement mon attention sur la construction par le partenaire alloglotte d'un sentiment de légitimité quant à son statut de locuteur plurilingue francophone
Resumo:
In fear conditioning, an animal learns to associate an unconditioned stimulus (US), such as a shock, and a conditioned stimulus (CS), such as a tone, so that the presentation of the CS alone can trigger conditioned responses. Recent research on the lateral amygdala has shown that following cued fear conditioning, only a subset of higher-excitable neurons are recruited in the memory trace. Their selective deletion after fear conditioning results in a selective erasure of the fearful memory. I hypothesize that the recruitment of highly excitable neurons depends on responsiveness to stimuli, intrinsic excitability and local connectivity. In addition, I hypothesize that neurons recruited for an initial memory also participate in subsequent memories, and that changes in neuronal excitability affect secondary fear learning. To address these hypotheses, I will show that A) a rat can learn to associate two successive short-term fearful memories; B) neuronal populations in the LA are competitively recruited in the memory traces depending on individual neuronal advantages, as well as advantages granted by the local network. By performing two successive cued fear conditioning experiments, I found that rats were able to learn and extinguish the two successive short-term memories, when tested 1 hour after learning for each memory. These rats were equipped with a system of stable extracellular recordings that I developed, which allowed to monitor neuronal activity during fear learning. 233 individual putative pyramidal neurons could modulate their firing rate in response to the conditioned tone (conditioned neurons) and/or non- conditioned tones (generalizing neurons). Out of these recorded putative pyramidal neurons 86 (37%) neurons were conditioned to one or both tones. More precisely, one population of neurons encoded for a shared memory while another group of neurons likely encoded the memories' new features. Notably, in spite of a successful behavioral extinction, the firing rate of those conditioned neurons in response to the conditioned tone remained unchanged throughout memory testing. Furthermore, by analyzing the pre-conditioning characteristics of the conditioned neurons, I determined that it was possible to predict neuronal recruitment based on three factors: 1) initial sensitivity to auditory inputs, with tone-sensitive neurons being more easily recruited than tone- insensitive neurons; 2) baseline excitability levels, with more highly excitable neurons being more likely to become conditioned; and 3) the number of afferent connections received from local neurons, with neurons destined to become conditioned receiving more connections than non-conditioned neurons. - En conditionnement de la peur, un animal apprend à associer un stimulus inconditionnel (SI), tel un choc électrique, et un stimulus conditionné (SC), comme un son, de sorte que la présentation du SC seul suffit pour déclencher des réflexes conditionnés. Des recherches récentes sur l'amygdale latérale (AL) ont montré que, suite au conditionnement à la peur, seul un sous-ensemble de neurones plus excitables sont recrutés pour constituer la trace mnésique. Pour apprendre à associer deux sons au même SI, je fais l'hypothèse que les neurones entrent en compétition afin d'être sélectionnés lors du recrutement pour coder la trace mnésique. Ce recrutement dépendrait d'un part à une activation facilité des neurones ainsi qu'une activation facilité de réseaux de neurones locaux. En outre, je fais l'hypothèse que l'activation de ces réseaux de l'AL, en soi, est suffisante pour induire une mémoire effrayante. Pour répondre à ces hypothèses, je vais montrer que A) selon un processus de mémoire à court terme, un rat peut apprendre à associer deux mémoires effrayantes apprises successivement; B) des populations neuronales dans l'AL sont compétitivement recrutées dans les traces mnésiques en fonction des avantages neuronaux individuels, ainsi que les avantages consentis par le réseau local. En effectuant deux expériences successives de conditionnement à la peur, des rats étaient capables d'apprendre, ainsi que de subir un processus d'extinction, pour les deux souvenirs effrayants. La mesure de l'efficacité du conditionnement à la peur a été effectuée 1 heure après l'apprentissage pour chaque souvenir. Ces rats ont été équipés d'un système d'enregistrements extracellulaires stables que j'ai développé, ce qui a permis de suivre l'activité neuronale pendant l'apprentissage de la peur. 233 neurones pyramidaux individuels pouvaient moduler leur taux d'activité en réponse au son conditionné (neurones conditionnés) et/ou au son non conditionné (neurones généralisant). Sur les 233 neurones pyramidaux putatifs enregistrés 86 (37%) d'entre eux ont été conditionnés à un ou deux tons. Plus précisément, une population de neurones code conjointement pour un souvenir partagé, alors qu'un groupe de neurones différent code pour de nouvelles caractéristiques de nouveaux souvenirs. En particulier, en dépit d'une extinction du comportement réussie, le taux de décharge de ces neurones conditionné en réponse à la tonalité conditionnée est resté inchangée tout au long de la mesure d'apprentissage. En outre, en analysant les caractéristiques de pré-conditionnement des neurones conditionnés, j'ai déterminé qu'il était possible de prévoir le recrutement neuronal basé sur trois facteurs : 1) la sensibilité initiale aux entrées auditives, avec les neurones sensibles aux sons étant plus facilement recrutés que les neurones ne répondant pas aux stimuli auditifs; 2) les niveaux d'excitabilité des neurones, avec les neurones plus facilement excitables étant plus susceptibles d'être conditionnés au son ; et 3) le nombre de connexions reçues, puisque les neurones conditionné reçoivent plus de connexions que les neurones non-conditionnés. Enfin, nous avons constaté qu'il était possible de remplacer de façon satisfaisante le SI lors d'un conditionnement à la peur par des injections bilatérales de bicuculline, un antagoniste des récepteurs de l'acide y-Aminobutirique.
Resumo:
La question du rêve est part intégrante de la question de la religion et intéresse de ce fait au plus haut point l'histoire comparée des religions. Non seulement les rêves ont-ils souvent été à l'origine d'une religion, mais ils sont fréquemment un de ses vecteurs principaux. En incluant la dimension onirique comme un élément constitutif du religieux et en développant des méthodes pour l'investiguer, le présent ouvrage se propose de montrer le lien consubstantiel entre religion et rêve. Les études réunies sont issues du colloque Rêves, visions révélatrices: réception et interprétation des songes dans le contexte religieux qui a eu lieu à Lausanne les 7 et 8 décembre 2000. Elles offrent des réflexions et des visions sur les rêves portant sur différentes traditions religieuses et faisant recours à des approches méthodologiques variées. L'ensemble des contributions tente de répondre à la double exigence de l'histoire des religions qui, tout en investissant un contexte religieux spécifique, se donne les moyens de réfléchir le rêve en lien à la religion dans une perspective comparative. Contenu Contenu: Maya Burger: Le rêve médiateur et l'histoire comparée des religions: une introduction - Marie-Elisabeth Handman: L'anthropologie et le rêve - Barbara Glowczewski: Sur la piste de Jukurrpa, le Dreaming australien - Hubert Knoblauch: Visions d'avenir - visions prophétiques? La province culturelle de sens, la vision d'avenir et l'ethnophénoménologie - Pierre-Yves Brandt: Fallait-il le rêver pour oser le réaliser? - Catherine Weinberger-Thomas: Rêves de morts dans l'Inde hindoue - David Gordon White: Possession, rêves et visions dans le tantrisme indien - Nicola Pozza: Le Kamayani: une épopée moderne entre rêves et visions révélatrices - Jacques Annequin: Dire le rêve, lire le rêve dans les mondes grec et romain de l'Antiquité - Yvan Bubloz: Le rêve, un réceptacle pour le vrai et le divin? Le débat de Porphyre et Jamblique sur la pertinence de l'oniromancie dans la quête de l'union au divin - Pierre Lory: «Celui qui me voit en rêve me voit dans la réalité» - Jean-Christophe Attias: Rêve, prophétie et exégèse - Philippe Bornet: «Tous les rêves vont d'après la bouche». Sur la portée de l'interprétation des rêves dans le judaïsme rabbinique. Auteur(s) - Responsable(s) de publication Les responsables de la publication: Maya Burger enseigne l'histoire des religions et le hindi à l'Université de Lausanne (Suisse). Son domaine de spécialisation est l'hindouisme médiéval et moderne. C'est dans ce domaine qu'elle a surtout publié, récemment: La perception hindoue des éléments / The Hindu Perception of the Elements. Studia Religiosa Helvetica, Jahrbuch 2000. Berne: Peter Lang (en co-édition avec P. Schreiner). Philippe Bornet est assistant et doctorant en histoire comparée des religions à l'Université de Lausanne.
Resumo:
Résumé Contexte et objectifs Les activités de recherche appliquée et développement (Ra&D) font partie du mandat de prestations des hautes écoles spécialisées (HES) prescrit par la loi. Néanmoins la tradition, le type et l'importance de la recherche varient fortement en fonction des domaines d'études. Il en va de même pour les liens avec les autres domaines de prestations que sont l'enseignement, la formation continue et les prestations de services. Les activités de Ra&D dans chaque HES s'inscrivent dans la tension entre l'orientation pratique (qui signifie le plus souvent une orientation vers le marché économique) et l'orientation vers la science (signe de leur rattachement au système scientifique). Il en découle des conflits d'intérêts entre les critères de qualité du « succès sur le marché » et de la « réputation scientifique ». En 2005, sur mandat de la Commission pour la technologie et l'innovation (CTI), B. Lepori et L. Attar (2006) ont mené une étude visant à examiner plus particulièrement les stratégies de recherche et l'organisation de la recherche au sein des hautes écoles spécialisées. Aujourd'hui, six ans plus tard, la phase de mise sur pied est en grande partie terminée. En lançant une nouvelle étude, l'Office fédéral de la formation professionnelle et de la technologie (OFFT) et la Commission fédérale des hautes écoles spécialisées (CFHES) souhaitaient faire le point sur les activités de recherche des HES, c'està- dire examiner les résultats des stratégies et de l'organisation de cette phase. Cette étude s'articule principalement autour de l'état actuel de la recherche, de ses problèmes et de ses perspectives. Structure de l'étude La recherche dans les HES se caractérise par différents facteurs d'influence (cultures disciplinaires, traditions, ancrage dans les régions linguistiques, structures organisationnelles, gouvernance, stratégies de positionnement, personnel, etc.). Dans la présente étude, ces facteurs sont systématiquement examinés selon deux dimensions: le « domaine d'études » et la « haute école spécialisée». L'analyse repose notamment sur l'exploitation de documents et de données. Mais cette étude se fonde principalement sur les entretiens menés avec les représentants des HES à différents niveaux de responsabilités. Les hautes écoles spécialisées (HES) Les entretiens avec les directions des HES ainsi que l'exploitation des données et des documents mettent en évidence la grande diversité des sept HES suisses de droit public dans leur structure, leurs combinaisons de domaines d'études et leurs orientations. Les modes de financement de la recherche varient fortement entre les HES. Concrètement, les sources de financement ne sont pas les mêmes d'une HES à l'autre (contributions des organes responsables, fonds de tiers, etc.). Les degrés et formes du pilotage concernant les contenus de la recherche diffèrent également dans une large mesure (définition de pôles de recherche, soutien cumulatif à l'acquisition de fonds de tiers), de même que les stratégies en matière de recrutement et d'encouragement du personnel. La politique de chaque HES implique des tensions et des problèmes spécifiques. Les domaines d'études Sur les dix domaines d'études, quatre ont été choisis à titre d'exemples pour des études approfondies : Technique et technologies de l'information (TI), Economie et services, Travail social, Musique, arts de la scène et autres arts. Chaque domaine d'études a été examiné à chaque fois dans deux HES. Cette méthode permet de relever les différences et les similitudes. Les résultats confirment qu'il existe des différences importantes à bien des égards entre les domaines d'études évalués. Ces différences concernent la position dans le système des hautes écoles, le volume des activités de recherche, l'importance de la recherche au sein des HES, la tradition, l'identité et l'orientation. Elles se retrouvent par ailleurs dans les buts et la place de la Ra&D dans les domaines d'études concernés. Il ressort toutefois qu'il n'y a pas lieu de parler d'une dichotomie entre les « anciens » et les « nouveaux » domaines d'études : Technique, économie et design (TED) d'une part et Santé, social et arts (SSA) d'autre part. Il semble plus pertinent de désigner le domaine d'études 4/144 Technique et TI comme le domaine dominant auquel se référent le pilotage et le financement des HES, que ce soit implicitement ou explicitement. Cadre homogène et espaces hétérogènes Le pilotage et le financement de la Ra&D au sein des hautes écoles spécialisées s'inscrivent dans un modèle-cadre fixé à l'échelle fédérale et principalement axé sur le domaine d'études Technique. Ce modèle-cadre se caractérise par un apport élevé de fonds de tiers (notamment les subventions de la CTI et les fonds privés) et des incitations en faveur de ce mode de financement, par une orientation vers le marché et par un haut degré d'autonomie des établissements partenaires/départements et instituts. Par comparaison avec les hautes écoles universitaires, les HES affichent notamment un faible niveau de financement de base dans le secteur Ra&D. Cet état de fait est certes compatible avec la forme actuelle du financement par la CTI, mais pas avec les règles de financement du Fonds national suisse (FNS). Un financement principalement basé sur les fonds de tiers signifie par ailleurs que l'orientation du contenu de la recherche et la définition de critères de qualité sont confiées à des instances externes, notamment aux mandants et aux institutions d'encouragement de la recherche. Il apparaît en dernier lieu qu'un tel modèle-cadre ne favorise pas les politiques visant à la constitution de pôles de recherche, l'obtention d'une taille critique, et la mise en place d'une coordination. Ces résultats concernent tous les domaines d'études sans avoir pour autant les mêmes conséquences : les domaines d'études se prêtant dans une faible mesure à l'acquisition de fonds de tiers sur des marchés économiques (dans cette étude, il s'agit essentiellement de la Musique, arts de la scène et autres arts, mais également du Travail social dans certains cas) ont plus de difficultés à répondre aux attentes énoncées en termes de succès et de profit. Les HES modifient plus ou moins le modèle-cadre en élaborant elles-mêmes des modèles d'organisation qui prennent en compte leur combinaison de domaines d'études et soutiennent leurs propres orientations et positionnements stratégiques. La combinaison de domaines d'études hétérogènes et de politiques différentes au sein des HES se traduit par une complexité du système des HES, beaucoup plus importante que ce que généralement supposée. De plus, au regard des connaissances lacunaires sur les structures « réelles » de gouvernance des HES, il n'est quasiment pas possible de comparer directement les hautes écoles spécialisées entre elles. Conclusions et recommandations Le principal constat qui ressort d'un ensemble de conclusions et de recommandations des auteurs est que le secteur Ra&D dans les HES doit être plus explicitement évalué en fonction des spécificités des domaines d'études, à savoir du rôle de la recherche pour l'économie et la société, des différences entre les marchés (économiques) correspondants et de l'importance de la Ra&D pour les objectifs visés. L'étude montre clairement qu'il n'y a pas à proprement parler une seule et unique recherche au sein des hautes écoles spécialisées et que la notion de « recherche appliquée » ne suffit ni comme description ni, par conséquence, comme critère d'identité commun. Partant de ce constat, nous recommandons de revoir le mode de financement de la recherche dans les HES et d'approfondir le débat sur les structures de gouvernance sur l'orientation de la Ra&D (et notamment sur les critères de qualité appliqués), de même que sur l'autonomie et la coordination. Les recommandations constituent des points de discussion et n'engagent aucunement l'OFFT ou la CFHES.
Resumo:
Cette thèse de doctorat propose une analyse comparative détaillée du phénomène de l'enchâssement narratif dans deux textes antiques du IIe s. apr. J.-C. : Leucippé et Clitophon d'Achille Tatius, écrit en grec ancien, et les Métamorphoses d'Apulée, en latin. Ces deux oeuvres sont rattachées par la critique moderne à un genre désigné comme le roman antique.Si le corpus est abordé de façon minutieuse, ce travail n'a pas la forme du commentaire philologique traditionnel, mais d'une nouvelle forme de commentaire, inspirée du Narratological Commentary de VOdyssée par Irene de Jong. L'analyse est sous-tendue par divers mouvements de synthèse et de comparaison ; cela est fait en recourant à diverses méthodes provenant de différents domaines de recherche : philologie grecque et latine, rhétorique antique, narratologie moderne et comparaison différentielle, telle que proposée par Ute Heidmann, qui défend une approche des textes non-hiérarchisante, focalisée autant sur les ressemblances que les dissemblances et les différences entre les textes étudiés.A la croisée de ces différents domaines de recherche, la thèse tente d'offrir de nouveaux apports. Sur le plan philologique, cette étude comparative de l'enchâssement dans deux textes antiques porte l'attention sur des voix et des récits qui étaient encore restés « in-ouïs » par la critique ; en ce sens qu'ils n'avaient pas encore été tous étudiés. Appliquant une comparaison non-hiérarchisante et différentielle, cette thèse va à l'encontre de deux opinions communes en philologie classique. Elle nuance l'idée générale d'une séparation étanche entre roman grec et roman latin, ainsi que l'idée reçue selon laquelle le dialogue entre la culture grecque et latine serait unilatéral, allant seulement du grec au latin et non pas aussi vice-versa. En ce qui concerne la critique sur l'enchâssement en philologie classique et plus concrètement dans les travaux sur le roman antique, l'apport de cette thèse peut être résumé par les termes « contextualisant » et « englobant ». Le contexte culturel de la Seconde Sophistique, mouvement fortement marqyé par la performance, l'oralité et la rhétorique, est pris en compte en prenant appui, en particulier, sur les traités d'art oratoire et les exercices de rhétorique. Si l'importance de ces derniers a été récemment reconnue et leur intérêt renouvelé par la critique, un rapprochement explicite avec le phénomène de l'enchâssement n'avait pas encore été effectué. Par ailleurs, l'étude du récit enchâssé dans deux romans antiques est ici, pour la première fois, effectuée dans son intégralité, en vue de mieux comprendre le procédé de l'enchâssement au sein des oeuvres étudiées, mais aussi en tant que phénomène à part entière.Sur le plan narratologique, la prise en considération de tous les récits enchâssés a permis de proposer l'ébauche d'une « grammaire de l'enchâssement narratif », applicable aussi à d'autres textes. Pour ce faire, le dispositif conceptuel proposé, entre autres, par Genette a été étendu et affiné. Les notions de récit et d'histoire ont également été élargies. Considérant l'histoire comme tout contenu comportant des séquences logico-temporelles, la narrativité a été étendue à tout discours portant sur cette histoire, ce qui a permis d'intégrer dans l'étude des rêves, oracles, plans, lamentations aussi bien que des actes comme les menaces, promesses, reproches, et même les énumérations et descriptions.Soulignant le dialogue entre la culture grecque et latine, la comparaison menée dans ce travail peut être qualifiée d'interculturelle et d'interdisciplinaire, en raison de l'intégration dialogique des philologies grecque et latine, de la narratologie et de la rhétorique.
Resumo:
Methods like Event History Analysis can show the existence of diffusion and part of its nature, but do not study the process itself. Nowadays, thanks to the increasing performance of computers, processes can be studied using computational modeling. This thesis presents an agent-based model of policy diffusion mainly inspired from the model developed by Braun and Gilardi (2006). I first start by developing a theoretical framework of policy diffusion that presents the main internal drivers of policy diffusion - such as the preference for the policy, the effectiveness of the policy, the institutional constraints, and the ideology - and its main mechanisms, namely learning, competition, emulation, and coercion. Therefore diffusion, expressed by these interdependencies, is a complex process that needs to be studied with computational agent-based modeling. In a second step, computational agent-based modeling is defined along with its most significant concepts: complexity and emergence. Using computational agent-based modeling implies the development of an algorithm and its programming. When this latter has been developed, we let the different agents interact. Consequently, a phenomenon of diffusion, derived from learning, emerges, meaning that the choice made by an agent is conditional to that made by its neighbors. As a result, learning follows an inverted S-curve, which leads to partial convergence - global divergence and local convergence - that triggers the emergence of political clusters; i.e. the creation of regions with the same policy. Furthermore, the average effectiveness in this computational world tends to follow a J-shaped curve, meaning that not only time is needed for a policy to deploy its effects, but that it also takes time for a country to find the best-suited policy. To conclude, diffusion is an emergent phenomenon from complex interactions and its outcomes as ensued from my model are in line with the theoretical expectations and the empirical evidence.Les méthodes d'analyse de biographie (event history analysis) permettent de mettre en évidence l'existence de phénomènes de diffusion et de les décrire, mais ne permettent pas d'en étudier le processus. Les simulations informatiques, grâce aux performances croissantes des ordinateurs, rendent possible l'étude des processus en tant que tels. Cette thèse, basée sur le modèle théorique développé par Braun et Gilardi (2006), présente une simulation centrée sur les agents des phénomènes de diffusion des politiques. Le point de départ de ce travail met en lumière, au niveau théorique, les principaux facteurs de changement internes à un pays : la préférence pour une politique donnée, l'efficacité de cette dernière, les contraintes institutionnelles, l'idéologie, et les principaux mécanismes de diffusion que sont l'apprentissage, la compétition, l'émulation et la coercition. La diffusion, définie par l'interdépendance des différents acteurs, est un système complexe dont l'étude est rendue possible par les simulations centrées sur les agents. Au niveau méthodologique, nous présenterons également les principaux concepts sous-jacents aux simulations, notamment la complexité et l'émergence. De plus, l'utilisation de simulations informatiques implique le développement d'un algorithme et sa programmation. Cette dernière réalisée, les agents peuvent interagir, avec comme résultat l'émergence d'un phénomène de diffusion, dérivé de l'apprentissage, où le choix d'un agent dépend en grande partie de ceux faits par ses voisins. De plus, ce phénomène suit une courbe en S caractéristique, poussant à la création de régions politiquement identiques, mais divergentes au niveau globale. Enfin, l'efficacité moyenne, dans ce monde simulé, suit une courbe en J, ce qui signifie qu'il faut du temps, non seulement pour que la politique montre ses effets, mais également pour qu'un pays introduise la politique la plus efficace. En conclusion, la diffusion est un phénomène émergent résultant d'interactions complexes dont les résultats du processus tel que développé dans ce modèle correspondent tant aux attentes théoriques qu'aux résultats pratiques.
Resumo:
Les glorificateurs russes du nom avancent des arguments nombreux pour affirmer une autre vision sur le mot et son origine et sur la langue en général. Ainsi la référence sur la nature divine du mot et de la langue, l'unité de la forme et du contenu, le lien étroit entre le mot et la pensée ou le sens. Ils ont voulu poser la question de l'ontologie de la langue pour éclaircir certains problèmes de son emploi. Rappelons, que cette réflexion fut entamée par les penseurs antiques, notamment par Platon et Aristote, continué aux premières décennies du christianisme, et reprise par la philosophie russe au début du XIXe siècle.
Resumo:
Résumé Suite à la publication des recommandations de pratiques cliniques sur la prise en soins de patients fébriles au retour des tropiques, nous avons développé un site internet de consultation www.fevertravel.ch qui comprend un arbre décisionnel et des caractéristiques diagnostiques spécifiques fournissant une assistance diagnostique aux médecins de premier recours. Nous avons ensuite intégré une composante de recherche afin d'évaluer l'implémentation de ces recommandations de pratiques cliniques informatisées. De plus, le site est capable d'enregistrer : (1) le chemin parcouru par le médecin au travers de l'arbre décisionnel, (2) les tests diagnostics effectués, (3) les diagnostics initial et final ainsi que les devenirs des patients et (4) les raisons de non-adhérence lorsque les médecins divergent de l'attitude proposée. Nous croyons que la technologie internat est un moyen puissant pour atteindre des médecins provenant de différents horizons dans leur propre environnement et qu'il pourrait se montrer être un outil de recherche efficace pour disséminer les recommandations de pratiques cliniques et évaluer leur justesse-adéquation. Dans cet article, nous décrivons le design, le contenu, l'architecture et l'implémentation du système de ce prototype d'étude interactive qui vise à intégrer une recherche opérationnelle en médecine de premier recours.
Resumo:
Introduction L'écriture manuelle fluide et automatisée constitue, avec la lecture, les fondements au développement des compétences scolaires. En effet, l'enfant peut développer le langage écrit avec l'acquisition de l'écriture, il a besoin d'une écriture manuelle automatisée lors d'évaluations scolaires écrites. De plus, la sollicitation de l'écriture manuelle augmente au cours de la scolarité, que ce soit au niveau de l'endurance, de la vitesse ou de la qualité. L'acquisition de l'écriture requiert des processus cognitifs, linguistiques et perceptivomoteurs, définis en tant que facteurs internes ou endogènes (Beeson et al., 2003) et résulte d'une démarche d'enseignement et d'un processus d'apprentissage constituant des facteurs externes ou exogènes. Les perturbations de l'acquisition de l'écriture sont nommées de différentes manières dans la littérature scientifique. Les chercheurs anglo-saxons convoquent la notion de faible écriture manuelle (poor handwriting), de troubles grapho-moteurs ou de difficultés d'écriture (Weintraub & Graham, 2000 ; Jongmans, Smits-Engelsman, & Schoemaker, 2003 ; Volman, van Schendel, &Jongmans, 2006) qui se caractérisent par une absence de régularité du tracé et/ ou de l'espace entre les mots, par des lettres ambiguës (Rosenblum, Weiss, & Parush, 2006). Les auteurs francophones, le plus souvent de formation médicale (Gubbay & de Klerk, 1995 ; Mazeau, 2005), utilisent plus fréquemment le diagnostic de dysgraphie qui renvoie à des difficultés d'assemblage de ronds et de traits pour former une lettre perturbant ainsi l'apprentissage de l'écriture (Mazeau, 2005). Selon Mazeau, la dysgraphie fait partie des troubles d'apprentissage. Les conséquences d'une faible écriture manuelle sont multiples. Si l'écriture n'est pas automatisée, l'enfant est placé dans une situation de double tâche nécessitant une attention focalisée à la fois sur l'acte d'écrire et sur le raisonnement nécessaire pour réaliser les exigences d'une tâche scolaire (Berningér et al., 1997). Si l'enfant se concentre sur la formation des lettres et le contrôle des mouvements, le raisonnement nécessaire à l'application de règles de grammaire et d'orthographe est perturbé tout comme la qualité des idées lors d'une composition. L'enfant présentant une écriture lente ne parviendra pas à finaliser son travail dans les situations de tests. Les difficultés d'écriture manuelle constituent un facteur de prédiction des troubles d'apprentissage (Harvey & Henderson, 1997 ; Simner, 1982) et elles sont fréquemment citées parmi les causes de la littératie. Car, comme le relèvent Berninger, Mizokawa et Bragg (1991), l'enfant présentant des difficultés d'écriture manuelle aura tendance à éviter toute activité d'écriture renforçant ainsi l'écart avec ses pairs dans ce domaine. Si ces comportements d'évitement se situent dans la période d'apprentissage de l'écriture, ils perturberont la mémorisation des lettres. En effet, la mémorisation des lettres est meilleure lorsque l'apprentissage se fait en situation d'écriture manuelle qu'en situation de lecture uniquement (Longcamp, Boucard, Guilhodes, & Velay, 2006). Par ailleurs, les épreuves dont la qualité de l'écriture est faible font l'objet d'évaluation moins favorable que celles dont l'écriture est plus facilement lisible. Les enseignants/es seraient alors moins persévérants/es dans leur lecture et plus sévères lors de la notation d'une rédaction. Ils, elles développeraient une faible perception des compétences en composition lorsqu'ils, elles sont confrontés/es à une épreuve dont la qualité est peu fluide et peu lisible (Alston & Taylor, 1987). L'identification des difficultés d'écriture peut se fairé de différentes manières (Kozatiek & Powell, 2002 ; Simons & Thijs, 2006 ). D'une part, l'appréciation de la qualité et de la vitesse d'écriture manuelle peut être subjective avec l'avis de l'enseignant et, d'autre part, objective avec l'utilisation de tests standardisés comportant des critères permettant de mesurer la vitesse et la qualité de l'écriture. Les conditions de passation des évaluations peuvent varier (copie, dictée ou composition) et influencer la vitesse et la qualité de l'écriture. La vitesse est moindre et la taille des lettres est inférieure en situation de composition qu'en situation de copie tandis que la régularité du tracé est plus stable en situation de copie que lors d'une composition. Si le dépistage et l'identification des difficultés d'écriture contribuent à la prévention de risques ultérieurs tels que de faibles compétence en littératie, la compréhension des causes de ces difficultés permettra le développement de moyens de remédiation de ces difficultés. Dans la littérature scientifique traitant de cette problématique, des facteurs endogènes ou exogènes peuvent être identifiés. Les facteurs endogènes regroupent autant la maturation développementale et le genre que les fonctions sensorimotrices telles que les dextérités manuelle et digitale, l'intégration visuomotrice, la visuoperception, l'attention visuelle et les fonctions cognitives. En outre, les troubles du développement tels qu'un trouble du langage, un déficit de l'attention ou un Trouble de l'acquisition de la coordination (TAC) (DSM-IV) (American Psychiatric Association, 2003) peuvent perturber l'acquisition de l'écriture. Les facteurs exogènes correspondent soit aux facteurs environnementaux tels que la position de l'enfant ou l'outil scripteur utilisé, soit aux modalités et à la durée de l'enseignement de l'écriture. En effet, la durée de l'enseignement de l'écriture et les modalités pédagogiques contribuent à marquer les différences interindividuelles pour la qualité et pour la vitesse de l'écriture. Actuellement, l'enseignement de l'écriture est, dans la plupart des programmes scolaires, intégré dans le cadre d'autres cours et ne fait pas l'objet d'un enseignement spécifique. Cette pratique entraîné un auto-apprentissage de la part de l'enfant et, par conséquent, un apprentissage implicite de l'écriture alors que les bénéfices d'un enseignement explicite ont été largement mis en évidence par Willingham et Goedert-Eschmann (1999). En effet, ces auteurs ont montré qu'un enseignement explicite favorise l'acquisition, la performance et le transfert d'apprentissage de manière plus importante que l'apprentissage implicite. Paradoxalement, alors que l'enseignement de l'écriture tend à être délaissé dans les programmes scolaires, les études mettant en évidence l'efficacité de l'enseignement de l'écriture (Berninger et al., 1997 ; Jongmans, Linthorst-Bakker, Westenberg & SmitsEngelsman et al., 2003 ; Schoemaker, Niemeijer, Reynders, & Smits-Engelsman , 2003) sont nombreuses. Leurs résultats montrent que l'enseignement d'une seule catégorie d'écriture (liée ou scripte) est plus efficace que l'enseignement de deux catégories d'écriture scripte en début d'apprentissage et écriture liée dans un second temps. Un enseignement régulier et intensif consacré à l'écriture au début de la scolarité va permettre une acquisition plus rapide de l'écriture et de la lecture (Graham & Weintraub, 1996 ; Denton, Cope & Moser, 2006). Selon Berninger, Abbot, Abbot, Graham et Richards (2002), la lecture et l'écriture devraient faire l'objet d'un enseignement coordonné et harmonisé. L'enseignement de l'écriture favorisant les liens avec les contextes d'utilisation de l'écriture montre une efficacité plus grande que lorsqu'il est déconnecté de son contexte (Denton, Cope, & Moser, 2006). L'enjeu d'une automatisation de l'écriture de qualité est important et relève d'une priorité afin de permettre aux enfants de développer de manière optimale leurs compétences académiques. Lorsque des troubles d'écriture sont constatés, l'identification des causes liées à ces difficultés tout comme une prise en charge spécifique faciliteront l'acquisition de cette compétence fondamentale (Berninger et al., 1997). Dans ces perspectives, cette thèse vise à identifier les facteurs endogènes et les facteurs exogènes intervenant dans l'écriture manuelle, que ce soit au niveau de la qualité ou de la vitesse de l'écriture. Au niveau théorique, elle développe l'étai des connaissances dans le domaine de l'écriture en neuropsychologie, en neurosciences et en sciences du mouvement humain. Elle présente, dans une perspective développementale, les modèles de l'apprentissage de l'écriture ainsi que les étapes d'acquisition de l'écriture tout en considérant les différences liées au genre. Ensuite, la description des difficultés d'écriture manuelle précède les moyens d'évaluation de l'écriture. Un chapitre est consacré aux fonctions perceptivomotrices et cognitives influençant l'écriture. Puis, comme les difficultés d'acquisition de l'écriture manuelle font partie du TAC, ce trouble est développé dans le chapitre 5. Enfin, les facteurs exogènes sont présentés dans le chapitre 6, ils comprennent les conditions environnementales (position de l'enfant, types de papiers, types d'outils scripteurs) ainsi que les dimensions d'un programme d'enseignement de l'écriture manuelle. Les effets des programmes de remédiation ou d'enseignement intensif de l'écriture sont traités en dernière partie du chapitre 6. Cette thèse est composée d'une partie de recherche fondamentale et d'une partie de recherche appliquée. La recherche fondamentale, qui comprend deux étapes d'investigation (Etudes 1 et 2), a pour objectifs d'identifier les facteurs endogènes prédictifs d'une écriture manuelle non performante (dextérités digitale et manuelle, intégration visuomotrice ou visuoperception) et d'investiguer les relations entre la lecture, l'attention visuelle, la mémoire audtive et l'écriture manuelle. De plus, elle déterminera la prévalence du TAC parmi les enfants présentant une faible écriture manuelle. La recherche appliquée comporte deux expérimentations. La première expérience a pour but de mesurer les effets d'un programme d'enseignement de l'écriture introduit en fin de deuxième année primaire visant à permettre aux enfants les plus faibles dans le domaine de l'écriture d'améliorer leurs performances. La seconde expérience analyse les effets d'un programme d'enseignement intensif de l'écriture manuelle qui s'est déroulé au début de la première année de scolarité obligatoire. L'acquisition de l'écriture est complexe tant au niveau du contróle moteur que du codage phonème -graphème ou de l'attention. L'écriture manuelle, en tant que compétence de base dans le développement des acquisitions scolaires, demeure tout au long de la scolarité et de la vie professionnelle, une compétence incontournable malgré le développement des nouvelles technologies. Remplir un formulaire, prendre des notes dans une séance ou à un cours, signer des documents, consigner des notes dans des dossiers, utiliser des écrans tactiles constituent des activités nécessitant une écriture manuelle fonctionnelle.
Resumo:
Dans le cadre de la politique multiculturelle de protection des minorités menée par le gouvernement taïwanais, le Comité ministériel aux affaires hakka (keweihui) a planifié dix-huit « halls culturels hakkas » dans chaque comté et municipalité. L'article retrace le processus de création d'un de ces halls, dans le nord de l'île de Taiwan, au cours de la décennie 2000. L'aménagement du hall procède à l'incorporation d'artistes locaux dans une tradition nationale hakka réinventée. Il est montré comment sa genèse s'est produite à l'intersection d'une politique impulsée par « le haut » et d'un projet émanant d'acteurs locaux. L'article met en évidence comment les catégories yingti (hardware) et ruanti (software) président à sa fabrication et impliquent une opposition et une complémentarité entre « contenant » et « contenu », entre « État » et « société », qui agissent à toutes les étapes de sa mise en oeuvre.
Resumo:
(Résumé de l'ouvrage) Cinq ans après sa première édition, cette désormais incontournable Introduction à l'Ancien Testament reparaît dans une nouvelle version entièrement révisée et substantiellement augmentée. Organisée sur le principe d'une présentationde chaque livre de l'Ancien Testament (plan, contenu, milieux producteurs, enjeux et orientations bibliographiques), ce manuel accueille aussi des contributions plus générales qui se voient ici largement complétées par des textes sur l'histoire d'Israël, les lois du Pentateuque, la littérature sapientiale, les Apocalypses juives et l'Ancien Testament des Eglises d'Orient. Avec cette nouvelle édition, la perspective initiale s'élargit vers une introduction plus large à l'Ancien Testament, au-delà de ses inscriptions protestantes et catholiques.
Resumo:
(Résumé de l'ouvrage) Cinq ans après sa première édition, cette désormais incontournable Introduction à l'Ancien Testament reparaît dans une nouvelle version entièrement révisée et substantiellement augmentée. Organisée sur le principe d'une présentationde chaque livre de l'Ancien Testament (plan, contenu, milieux producteurs, enjeux et orientations bibliographiques), ce manuel accueille aussi des contributions plus générales qui se voient ici largement complétées par des textes sur l'histoire d'Israël, les lois du Pentateuque, la littérature sapientiale, les Apocalypses juives et l'Ancien Testament des Eglises d'Orient. Avec cette nouvelle édition, la perspective initiale s'élargit vers une introduction plus large à l'Ancien Testament, au-delà de ses inscriptions protestantes et catholiques.