33 resultados para VALUATIONS

em Université de Lausanne, Switzerland


Relevância:

20.00% 20.00%

Publicador:

Resumo:

L'économie de mouvement en course à pied est un paramètre essentiel pour la performance et de nouvelles méthodes d'entrainement essaient aujourd'hui de le cibler. La mesure de cette économie de course se fait habituellement en laboratoire par la consommation d'oxygène nécessaire au déplacement à une vitesse donnée sous-maximale. La question de cette étude est de voir dans quelle mesure l'oeil averti d'un entraineur en course à pied peut estimer l'économie de course, en comparaison à une mesure objective de la consommation d'oxygène. Au total, 22 coureurs de niveaux différents et 9 entraineurs ont pris part à cette étude. Elle s'est dans un premier temps déroulée avec les coureurs sur le site du Stade de Coubertin à Vidy (VD). Cette étape a permis les enregistrements vidéo et la mesure de leur économie de course respective ainsi que l'établissement des notes d'économies de référence. Dans un second temps, les évaluations par les entraineurs ont été faites en ligne sur la base des vidéos. Les résultats ont été traités de telle manière à obtenir des coefficients (corrélation intraclasse et kappa de Cohen) estimant la concordance des évaluations de chaque entraineur avec les notes de référence. La concordance au sein du groupe d'entraineurs a aussi été évaluée. L'étude présente en conclusion des résultats étonnants, remettant en question la capacité des entraineurs à évaluer l'économie de course de coureurs issus d'un groupe de performances hétérogènes par rapport à des mesures objectives. En revanche, l'étude présente des résultats indiquant une bonne concordance des entraineurs entre eux.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce livre est une introduction à la philosophie des sciences qui se veut accessible aux étudiants. Il résume l'état actuel de la connaissance, en présentant les différents concepts et en proposant une évaluation des résultats fondés et des questions majeures qui restent ouvertes. Il vise à contribuer au développement d'une nouvelle philosophie de la nature qui prend en considération les théories scientifiques, cherchant à élaborer sur leur base une vision de l'ensemble de la nature : il utilise à cet effet les outils conceptuels de la philosophie analytique. La première partie de l'ouvrage dresse un bilan du débat entre l'empirisme logique et ses critiques. La deuxième partie, la partie principale, présente les principaux sujets de la métaphysique de la nature en se focalisant sur la philosophie de la physique. La troisième partie traite les thèmes de l'unité de la nature ainsi que l'unité des sciences. Cette deuxième édition intègre de nouvelles réflexions sur les Fondements physiques et la causalité. Elle ne considère pas la philosophie de la biologie, qui sera spécifiquement traitée dans un ouvrage à paraître prochainement chez le même éditeur. Chaque chapitre, contient un appareil pédagogique avec résumé, questions d'évaluations et propositions de travail, et l'ouvrage est complété d'un glossaire et d'une bibliographie exhaustive : il est donc particulièrement adapté à un support de cours.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le travail policier et l'enquête judiciaire nécessitent de prendre de nombreuses décisions : choisir quelle trace analyser, mettre sous surveillance ou en détention un suspect, sont autant de décisions qui sont prises quotidiennement par les acteurs du système judiciaire. Ces décisions font l'objet de pesées d'intérêts qui se fondent sur l'analyse de l'information accessible. C'est le rôle de l'analyse criminelle de mettre en perspective l'information colligée pour la rendre intelligible aux décideurs compétents. L'usage de représentations graphiques est notamment recommandé pour soutenir l'analyse et la communication de ces informations.Des techniques de visualisation relationnelle sont notamment exploitées dans les enquêtes judiciaires afin de faciliter le traitement d'affaires d'envergure. Les éléments pertinents de l'enquête sont représentés sous la forme de schémas décrivant les relations entre les événements et les entités d'intérêts (tel que des personnes, des objets et des traces). Les exploitations classiques de ces techniques qui s'apparentent à des graphes, sont par exemple : la représentation de réseaux criminels, de trafics de marchandises, de chronologies d'événements, ainsi que la visualisation de relations téléphoniques et financières. Dans ce contexte, la visualisation soutient un nombre importants d'objectifs, tels qu'analyser les traces et les informations collectées, évaluer a posteriori une investigation, aider à qualifier les infractions, faciliter l'appréhension d'un dossier, voire soutenir une argumentation lors du procès.La pratique intègre des outils logiciels simples qui produisent des graphiques élégants et souvent percutants. Leur utilisation semble néanmoins soulever des difficultés. Cette recherche tend à montrer qu'il existe des disparités étonnantes lors de l'exploitation de ces techniques. Des biais de raisonnement et de perception peuvent être induits, allant jusqu'à provoquer des décisions aux conséquences parfois désastreuses. Ce constat révèle la nécessité de consolider les méthodes pratiquées.Pour mettre en évidence ces difficultés, des évaluations ont été effectuées avec des praticiens et des étudiants. Elles ont permis d'établir une image empirique de l'étendue des variations de conception et d'interprétation des représentations, ainsi que de leurs impacts sur la prise de décision. La nature et la diversité des concepts à représenter, l'absence d'un consensus émergeant sur la manière de représenter les données, la diversité des solutions visuelles envisageables, les contraintes imposées par les outils exploités et l'absence d'une formalisation claire du langage, sont autant de causes supposées des difficultés.Au cours des vingt dernières années, plusieurs axes de développement ont été proposés pour traiter les difficultés observées, tels que l'amélioration des automatismes facilitant la conception d'une représentation, l'exploitation des techniques de réseaux sociaux, l'automatisation de l'identification et de l'extraction des entités dans du texte non-structuré et la définition de langages formels. Cette recherche propose une approche parallèle fondée sur une exploitation adaptée de structures de graphe et de propriétés visuelles pour optimiser la représentation en fonction des objectifs définis et de la nature des informations à représenter.Des solutions ont été recherchées selon plusieurs axes. Des recommandations générales, issues de diverses communautés de recherche liées à la visualisation, ont été recherchées afin de proposer une démarche générale de conception des schémas relationnels. Par ailleurs, le développement d'un catalogue de bonnes pratiques formalisées sous la forme de patterns de visualisation a été amorcé. Chaque pattern décrit une solution particulière pour un problème d'analyse récurrent, tel que l'analyse d'une série de cambriolages. Finalement, l'impact sur les outils de la méthodologie proposée est discuté en regard des limites qu'ils imposent. Un prototype de visualisation multidimensionnel a été élaboré.Cette recherche met en évidence les difficultés rencontrées lors de l'exploitation de représentations graphiques pour soutenir le processus de l'enquête judiciaire et propose des éléments de méthode et des innovations techniques utiles tant pour l'enseignement de la discipline que pour sa pratique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Rapport de synthèse : DEVENIR NEURO-DEVELOPPEMENTAL DE NOUVEAU-NES TRAITES PAR DU SULFATE DE MAGNESIUM POUR UNE HYPERTENSION PULMONAIRE PERSISTANTE L'hypertension pulmonaire persistante du nouveau-né (HTPP) est un trouble de l'adaptation post-natale de la circulation pulmonaire caractérisé par une défaillance de la diminution normale des résistances vasculaires pulmonaires, accompagné d'un shunt droite-gauche, résultant en une hypoxémie profonde. C'est une pathologie sévère nécessitant des soins intensifs avec un risque augmenté de handicaps neurologiques chez les survivants. Le traitement de l'HTPP du nouveau-né inclut une ventilation mécanique ainsi que différents agents pharmacologiques pour dilater les vaisseaux pulmonaires, dont le sulfate de magnésium (MgSO4) à hautes doses par voie intraveineuse et le monoxyde d'azote par voie inhalée (iN0). Le MgSO4 est une alternative thérapeutique de l'HTPP du nouveau-né avec peu d'effets secondaires et une mortalité basse. Il a aussi été démontré que le MgSO4 est un traitement de l'HTPP du nouveau-né autant efficace que le iN0 et moins coüteux. Des études sur le suivi neuro-développemental de nouveau-nés avec HTPP traités selon différentes méthodes ont été publiées reportant des taux élevés de handicaps majeurs et mineurs. Plus récemment, des études de suivi après traitement par iN0 ont montré des taux plus bas qu'avec des traitements antérieurs. Le devenir neuro-développemental àlong terme d'enfants traités avec du MgSO4 n'a pas été documenté. Le but de cette étude est de décrire le développement des enfants qui ont présenté une HTPP traitée seulement avec du MgS04, de reporter l'incidence de handicaps majeurs et mineurs, et de les comparer à un groupe contrôle d'enfants sains du même âge ainsi qu'aux données de la littérature. La population consiste en 33 nouveau-nés traités pour une HTPP avec seulement du MgSO4 (groupe étude) et 32 nouveau-nés à terme sains (groupe contrôle). Un suivi neurodéveloppemental standardisé et approfondi a été effectué aux âges clés de 18 mois et 5 ans. Les taux de handicaps majeurs à 18 mois et 5 ans dans le groupe étude étaient de 6% et 11,4% respectivement, et de 0% aux deux âges dans le groupe contrôle. Les taux de handicaps mineurs aux mêmes âges étaient de 3% et 26,9% pour le groupe étude, et de 0% et 26,1% pour le groupe contrôle. Les quotients développementaux moyens à 18 mois étaient de 106,6 (DS 1,6) dans le groupe étude et de 118,3 (DS 1,0) dans le groupe contrôle (P < 0,001). L'index général intellectuel en âge préscolaire était de 112.6 (DS 3.7), respectivement de 119.3 (DS 3.1 ), sans différence significative entre les deux groupes. A 18 mois, les taux de handicaps majeurs et mineurs dans les groupes études et contrôle étaient de 6% et 3%. Dans la littérature, des taux entre 0% et 33% ont été décrits. A cet âge, il y avait une différence significative pour tous les scores du test de Griffiths, mëme en tenant compte du status socio-économique de la famille. Ceci suggère un léger retard du développement global et non une altération spécifique. Ces différences n'étaient plus significatives en âge préscolaire, suggérant un rattrapage développemental. Le taux de handicaps majeurs en âge préscolaire pour le groupe étude était de 11.5%, sans aucune infirmité motrice cérébrale. Ces résultats correspondent à ceux d'études de suivi après d'autres traitements jusqu'à l'âge de 24 mois avec des taux variant de 0% à 15%. Le taux de handicaps mineurs était de 26.9% dans le groupe étude et de 26.1% dans le groupe contrôle, sans différence significative entre les deux groupes. L'incidence de handicaps mineurs dans le groupe étude était plutôt élevée en comparaison aux données de la littérature (6 à 22% à 6 ans). Une explication possible est que nous avons considéré des problèmes de langage et de comportement comme handicaps mineurs. Ceci suggère une différence méthodologique et non une plus mauvaise issue dans nos deux groupes. Les évaluations cognitives des enfants des deux groupes se trouvaient dans la norme, ce qui est aussi le cas dans la littérature. En conclusion, cette étude longitudinale non randomisée d'enfants traités avec du MgSO4 seul pour une HTPP sévère ne montre pas de conséquences sur le devenir neuro-développemental à long terme. Cette étude le démontre pour la première fois. Malgré le fait que iN0 soit le traitement actuellement recommandé pour l'HTPP du nopuveau-né, le MgSO4 reste largement utilisé, en particulier dans des pays en voie de développement. L'absence de complications neuro-développementales majeures à long terme permet de considérer l'administration du MgSO4 pour le traitement de l'HTPP du nouveau-né en cas de non réponse ou d'inaccessibilité au iNO.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This thesis focuses on theoretical asset pricing models and their empirical applications. I aim to investigate the following noteworthy problems: i) if the relationship between asset prices and investors' propensities to gamble and to fear disaster is time varying, ii) if the conflicting evidence for the firm and market level skewness can be explained by downside risk, Hi) if costly learning drives liquidity risk. Moreover, empirical tests support the above assumptions and provide novel findings in asset pricing, investment decisions, and firms' funding liquidity. The first chapter considers a partial equilibrium model where investors have heterogeneous propensities to gamble and fear disaster. Skewness preference represents the desire to gamble, while kurtosis aversion represents fear of extreme returns. Using US data from 1988 to 2012, my model demonstrates that in bad times, risk aversion is higher, more people fear disaster, and fewer people gamble, in contrast to good times. This leads to a new empirical finding: gambling preference has a greater impact on asset prices during market downturns than during booms. The second chapter consists of two essays. The first essay introduces a foramula based on conditional CAPM for decomposing the market skewness. We find that the major market upward and downward movements can be well preadicted by the asymmetric comovement of betas, which is characterized by an indicator called "Systematic Downside Risk" (SDR). We find that SDR can efafectively forecast future stock market movements and we obtain out-of-sample R-squares (compared with a strategy using historical mean) of more than 2.27% with monthly data. The second essay reconciles a well-known empirical fact: aggregating positively skewed firm returns leads to negatively skewed market return. We reconcile this fact through firms' greater response to negative maraket news than positive market news. We also propose several market return predictors, such as downside idiosyncratic skewness. The third chapter studies the funding liquidity risk based on a general equialibrium model which features two agents: one entrepreneur and one external investor. Only the investor needs to acquire information to estimate the unobservable fundamentals driving the economic outputs. The novelty is that information acquisition is more costly in bad times than in good times, i.e. counter-cyclical information cost, as supported by previous empirical evidence. Later we show that liquidity risks are principally driven by costly learning. Résumé Cette thèse présente des modèles théoriques dévaluation des actifs et leurs applications empiriques. Mon objectif est d'étudier les problèmes suivants: la relation entre l'évaluation des actifs et les tendances des investisseurs à parier et à crainadre le désastre varie selon le temps ; les indications contraires pour l'entreprise et l'asymétrie des niveaux de marché peuvent être expliquées par les risques de perte en cas de baisse; l'apprentissage coûteux augmente le risque de liquidité. En outre, des tests empiriques confirment les suppositions ci-dessus et fournissent de nouvelles découvertes en ce qui concerne l'évaluation des actifs, les décisions relatives aux investissements et la liquidité de financement des entreprises. Le premier chapitre examine un modèle d'équilibre où les investisseurs ont des tendances hétérogènes à parier et à craindre le désastre. La préférence asymétrique représente le désir de parier, alors que le kurtosis d'aversion représente la crainte du désastre. En utilisant les données des Etats-Unis de 1988 à 2012, mon modèle démontre que dans les mauvaises périodes, l'aversion du risque est plus grande, plus de gens craignent le désastre et moins de gens parient, conatrairement aux bonnes périodes. Ceci mène à une nouvelle découverte empirique: la préférence relative au pari a un plus grand impact sur les évaluations des actifs durant les ralentissements de marché que durant les booms économiques. Exploitant uniquement cette relation générera un revenu excédentaire annuel de 7,74% qui n'est pas expliqué par les modèles factoriels populaires. Le second chapitre comprend deux essais. Le premier essai introduit une foramule base sur le CAPM conditionnel pour décomposer l'asymétrie du marché. Nous avons découvert que les mouvements de hausses et de baisses majeures du marché peuvent être prédits par les mouvements communs des bêtas. Un inadicateur appelé Systematic Downside Risk, SDR (risque de ralentissement systématique) est créé pour caractériser cette asymétrie dans les mouvements communs des bêtas. Nous avons découvert que le risque de ralentissement systématique peut prévoir les prochains mouvements des marchés boursiers de manière efficace, et nous obtenons des carrés R hors échantillon (comparés avec une stratégie utilisant des moyens historiques) de plus de 2,272% avec des données mensuelles. Un investisseur qui évalue le marché en utilisant le risque de ralentissement systématique aurait obtenu une forte hausse du ratio de 0,206. Le second essai fait cadrer un fait empirique bien connu dans l'asymétrie des niveaux de march et d'entreprise, le total des revenus des entreprises positiveament asymétriques conduit à un revenu de marché négativement asymétrique. Nous décomposons l'asymétrie des revenus du marché au niveau de l'entreprise et faisons cadrer ce fait par une plus grande réaction des entreprises aux nouvelles négatives du marché qu'aux nouvelles positives du marché. Cette décomposition révélé plusieurs variables de revenus de marché efficaces tels que l'asymétrie caractéristique pondérée par la volatilité ainsi que l'asymétrie caractéristique de ralentissement. Le troisième chapitre fournit une nouvelle base théorique pour les problèmes de liquidité qui varient selon le temps au sein d'un environnement de marché incomplet. Nous proposons un modèle d'équilibre général avec deux agents: un entrepreneur et un investisseur externe. Seul l'investisseur a besoin de connaitre le véritable état de l'entreprise, par conséquent, les informations de paiement coutent de l'argent. La nouveauté est que l'acquisition de l'information coute plus cher durant les mauvaises périodes que durant les bonnes périodes, comme cela a été confirmé par de précédentes expériences. Lorsque la récession comamence, l'apprentissage coûteux fait augmenter les primes de liquidité causant un problème d'évaporation de liquidité, comme cela a été aussi confirmé par de précédentes expériences.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction L'écriture manuelle fluide et automatisée constitue, avec la lecture, les fondements au développement des compétences scolaires. En effet, l'enfant peut développer le langage écrit avec l'acquisition de l'écriture, il a besoin d'une écriture manuelle automatisée lors d'évaluations scolaires écrites. De plus, la sollicitation de l'écriture manuelle augmente au cours de la scolarité, que ce soit au niveau de l'endurance, de la vitesse ou de la qualité. L'acquisition de l'écriture requiert des processus cognitifs, linguistiques et perceptivomoteurs, définis en tant que facteurs internes ou endogènes (Beeson et al., 2003) et résulte d'une démarche d'enseignement et d'un processus d'apprentissage constituant des facteurs externes ou exogènes. Les perturbations de l'acquisition de l'écriture sont nommées de différentes manières dans la littérature scientifique. Les chercheurs anglo-saxons convoquent la notion de faible écriture manuelle (poor handwriting), de troubles grapho-moteurs ou de difficultés d'écriture (Weintraub & Graham, 2000 ; Jongmans, Smits-Engelsman, & Schoemaker, 2003 ; Volman, van Schendel, &Jongmans, 2006) qui se caractérisent par une absence de régularité du tracé et/ ou de l'espace entre les mots, par des lettres ambiguës (Rosenblum, Weiss, & Parush, 2006). Les auteurs francophones, le plus souvent de formation médicale (Gubbay & de Klerk, 1995 ; Mazeau, 2005), utilisent plus fréquemment le diagnostic de dysgraphie qui renvoie à des difficultés d'assemblage de ronds et de traits pour former une lettre perturbant ainsi l'apprentissage de l'écriture (Mazeau, 2005). Selon Mazeau, la dysgraphie fait partie des troubles d'apprentissage. Les conséquences d'une faible écriture manuelle sont multiples. Si l'écriture n'est pas automatisée, l'enfant est placé dans une situation de double tâche nécessitant une attention focalisée à la fois sur l'acte d'écrire et sur le raisonnement nécessaire pour réaliser les exigences d'une tâche scolaire (Berningér et al., 1997). Si l'enfant se concentre sur la formation des lettres et le contrôle des mouvements, le raisonnement nécessaire à l'application de règles de grammaire et d'orthographe est perturbé tout comme la qualité des idées lors d'une composition. L'enfant présentant une écriture lente ne parviendra pas à finaliser son travail dans les situations de tests. Les difficultés d'écriture manuelle constituent un facteur de prédiction des troubles d'apprentissage (Harvey & Henderson, 1997 ; Simner, 1982) et elles sont fréquemment citées parmi les causes de la littératie. Car, comme le relèvent Berninger, Mizokawa et Bragg (1991), l'enfant présentant des difficultés d'écriture manuelle aura tendance à éviter toute activité d'écriture renforçant ainsi l'écart avec ses pairs dans ce domaine. Si ces comportements d'évitement se situent dans la période d'apprentissage de l'écriture, ils perturberont la mémorisation des lettres. En effet, la mémorisation des lettres est meilleure lorsque l'apprentissage se fait en situation d'écriture manuelle qu'en situation de lecture uniquement (Longcamp, Boucard, Guilhodes, & Velay, 2006). Par ailleurs, les épreuves dont la qualité de l'écriture est faible font l'objet d'évaluation moins favorable que celles dont l'écriture est plus facilement lisible. Les enseignants/es seraient alors moins persévérants/es dans leur lecture et plus sévères lors de la notation d'une rédaction. Ils, elles développeraient une faible perception des compétences en composition lorsqu'ils, elles sont confrontés/es à une épreuve dont la qualité est peu fluide et peu lisible (Alston & Taylor, 1987). L'identification des difficultés d'écriture peut se fairé de différentes manières (Kozatiek & Powell, 2002 ; Simons & Thijs, 2006 ). D'une part, l'appréciation de la qualité et de la vitesse d'écriture manuelle peut être subjective avec l'avis de l'enseignant et, d'autre part, objective avec l'utilisation de tests standardisés comportant des critères permettant de mesurer la vitesse et la qualité de l'écriture. Les conditions de passation des évaluations peuvent varier (copie, dictée ou composition) et influencer la vitesse et la qualité de l'écriture. La vitesse est moindre et la taille des lettres est inférieure en situation de composition qu'en situation de copie tandis que la régularité du tracé est plus stable en situation de copie que lors d'une composition. Si le dépistage et l'identification des difficultés d'écriture contribuent à la prévention de risques ultérieurs tels que de faibles compétence en littératie, la compréhension des causes de ces difficultés permettra le développement de moyens de remédiation de ces difficultés. Dans la littérature scientifique traitant de cette problématique, des facteurs endogènes ou exogènes peuvent être identifiés. Les facteurs endogènes regroupent autant la maturation développementale et le genre que les fonctions sensorimotrices telles que les dextérités manuelle et digitale, l'intégration visuomotrice, la visuoperception, l'attention visuelle et les fonctions cognitives. En outre, les troubles du développement tels qu'un trouble du langage, un déficit de l'attention ou un Trouble de l'acquisition de la coordination (TAC) (DSM-IV) (American Psychiatric Association, 2003) peuvent perturber l'acquisition de l'écriture. Les facteurs exogènes correspondent soit aux facteurs environnementaux tels que la position de l'enfant ou l'outil scripteur utilisé, soit aux modalités et à la durée de l'enseignement de l'écriture. En effet, la durée de l'enseignement de l'écriture et les modalités pédagogiques contribuent à marquer les différences interindividuelles pour la qualité et pour la vitesse de l'écriture. Actuellement, l'enseignement de l'écriture est, dans la plupart des programmes scolaires, intégré dans le cadre d'autres cours et ne fait pas l'objet d'un enseignement spécifique. Cette pratique entraîné un auto-apprentissage de la part de l'enfant et, par conséquent, un apprentissage implicite de l'écriture alors que les bénéfices d'un enseignement explicite ont été largement mis en évidence par Willingham et Goedert-Eschmann (1999). En effet, ces auteurs ont montré qu'un enseignement explicite favorise l'acquisition, la performance et le transfert d'apprentissage de manière plus importante que l'apprentissage implicite. Paradoxalement, alors que l'enseignement de l'écriture tend à être délaissé dans les programmes scolaires, les études mettant en évidence l'efficacité de l'enseignement de l'écriture (Berninger et al., 1997 ; Jongmans, Linthorst-Bakker, Westenberg & SmitsEngelsman et al., 2003 ; Schoemaker, Niemeijer, Reynders, & Smits-Engelsman , 2003) sont nombreuses. Leurs résultats montrent que l'enseignement d'une seule catégorie d'écriture (liée ou scripte) est plus efficace que l'enseignement de deux catégories d'écriture scripte en début d'apprentissage et écriture liée dans un second temps. Un enseignement régulier et intensif consacré à l'écriture au début de la scolarité va permettre une acquisition plus rapide de l'écriture et de la lecture (Graham & Weintraub, 1996 ; Denton, Cope & Moser, 2006). Selon Berninger, Abbot, Abbot, Graham et Richards (2002), la lecture et l'écriture devraient faire l'objet d'un enseignement coordonné et harmonisé. L'enseignement de l'écriture favorisant les liens avec les contextes d'utilisation de l'écriture montre une efficacité plus grande que lorsqu'il est déconnecté de son contexte (Denton, Cope, & Moser, 2006). L'enjeu d'une automatisation de l'écriture de qualité est important et relève d'une priorité afin de permettre aux enfants de développer de manière optimale leurs compétences académiques. Lorsque des troubles d'écriture sont constatés, l'identification des causes liées à ces difficultés tout comme une prise en charge spécifique faciliteront l'acquisition de cette compétence fondamentale (Berninger et al., 1997). Dans ces perspectives, cette thèse vise à identifier les facteurs endogènes et les facteurs exogènes intervenant dans l'écriture manuelle, que ce soit au niveau de la qualité ou de la vitesse de l'écriture. Au niveau théorique, elle développe l'étai des connaissances dans le domaine de l'écriture en neuropsychologie, en neurosciences et en sciences du mouvement humain. Elle présente, dans une perspective développementale, les modèles de l'apprentissage de l'écriture ainsi que les étapes d'acquisition de l'écriture tout en considérant les différences liées au genre. Ensuite, la description des difficultés d'écriture manuelle précède les moyens d'évaluation de l'écriture. Un chapitre est consacré aux fonctions perceptivomotrices et cognitives influençant l'écriture. Puis, comme les difficultés d'acquisition de l'écriture manuelle font partie du TAC, ce trouble est développé dans le chapitre 5. Enfin, les facteurs exogènes sont présentés dans le chapitre 6, ils comprennent les conditions environnementales (position de l'enfant, types de papiers, types d'outils scripteurs) ainsi que les dimensions d'un programme d'enseignement de l'écriture manuelle. Les effets des programmes de remédiation ou d'enseignement intensif de l'écriture sont traités en dernière partie du chapitre 6. Cette thèse est composée d'une partie de recherche fondamentale et d'une partie de recherche appliquée. La recherche fondamentale, qui comprend deux étapes d'investigation (Etudes 1 et 2), a pour objectifs d'identifier les facteurs endogènes prédictifs d'une écriture manuelle non performante (dextérités digitale et manuelle, intégration visuomotrice ou visuoperception) et d'investiguer les relations entre la lecture, l'attention visuelle, la mémoire audtive et l'écriture manuelle. De plus, elle déterminera la prévalence du TAC parmi les enfants présentant une faible écriture manuelle. La recherche appliquée comporte deux expérimentations. La première expérience a pour but de mesurer les effets d'un programme d'enseignement de l'écriture introduit en fin de deuxième année primaire visant à permettre aux enfants les plus faibles dans le domaine de l'écriture d'améliorer leurs performances. La seconde expérience analyse les effets d'un programme d'enseignement intensif de l'écriture manuelle qui s'est déroulé au début de la première année de scolarité obligatoire. L'acquisition de l'écriture est complexe tant au niveau du contróle moteur que du codage phonème -graphème ou de l'attention. L'écriture manuelle, en tant que compétence de base dans le développement des acquisitions scolaires, demeure tout au long de la scolarité et de la vie professionnelle, une compétence incontournable malgré le développement des nouvelles technologies. Remplir un formulaire, prendre des notes dans une séance ou à un cours, signer des documents, consigner des notes dans des dossiers, utiliser des écrans tactiles constituent des activités nécessitant une écriture manuelle fonctionnelle.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cet article fait le point sur les réformes de la gestion publique en Suisse. Après avoir montré que ce pays est marqué par une tradition de modernisation qui le rend très réceptif aux nouvelles approches de gestion, l'article analyse en particulier le mouvement de Nouvelle Gestion Publique (NGP) à la mode helvétique. Les principales orientations de la NGP suisse, ainsi que les évaluations qui en ont été faites sous l'angle des autorités politiques, de l'administration et des citoyens, permettent d'esquisser les défis qui attendent le système suisse dans l'ère de l'après-NGP.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le cas de Julia est extrait d'une recherche sur le développement de l'alliance thérapeutique au cours d'une psychothérapie psychodynamique brève, mesurée après chaque séance par le patient et le thérapeute. Le profit d'évolution de l'alliance chez Julia présente plusieurs épisodes décrits dans la littérature comme des épisodes de ruptures-résolutions. L'article expose la comparaison de cette mesure quantitative de l'alliance tout au long du processus thérapeutique avec une évaluation quantitative et qualitative par le thérapeute du processus relationnel transféro-contre-transférentiel. Les résultats révèlent plusieurs types de covariations dans les évaluations de Julia et celles de son thérapeute, qui jettent un éclairage nouveau sur des questions importantes comme le lien entre alliance et transfert ou le lien entre perceptions de la relation du patient et du thérapeute. L'intérêt de ce type d'étude de cas pour la recherche et la clinique est discuté. Nous recommandons tout particulièrement l'utilisation routinière d'une mesure d'alliance thérapeutique dans la pratique courante.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This study had mainly two goals: First of all, adult attachement was investigated in 28 patients with chronic psychosis and 18 controls, using the"Adult Attachment Interiew". This, as no previous research had ever done so with a scientific validated instrument. Diagnostic evaluations were performed with the SCID and symptomtic evaluation with the BPRS. Results showed that patients were more likely to have experienced traumatic experiences with their primary caregivers during their childhood then have controls. We were able to identify as well a high prevalence of insecure avoidant attachement in patients, which highlights the functional dimension of psychosis in the maintenance of the relation to primary attachement figures. This study shows that insecure avoidant attachement is related to an early outset as well as to an unfavourable prognosis. Second, quite a few researches on spirituality in psychosis have shown that patients were more likely to have spiritual believes or practices then indiviuals of a nonclinical population. Coping strategies related to spirituality and religion were identified as efficient for the majority. They can help dealing with all types of difficulties, specific symptoms and may enhance life quality (Mohr et al., 2006). Therefore we have investigated some of the underlying psychological processes in this type of coping strategies, using the conceptual framework of Bowlby's attachement theory. For most participants, both patients and controls, « spiritual figures » are functionning as attachement figures. Most of them are transposing the internal working model, achieved in relation to their primary caregivers, towards their "spiritual figure" even in case of an insecure attachement. - Cette recherche poursuit essentiellement deux objectifs. Premièrement, elle examine les modèles d'attachement à l'aide du « Adult Attachment Interview » chez 28 personnes souffrant de psychose chronique et chez 18 personnes ne souffrant d'aucune affection psychiatrique. En effet, aucune étude avant celle-ci n'avait investigué l'attachement chez des patients psychotiques chroniques à l'aide d'instruments scientifiquement validés. Les évaluations diagnostiques ont été réalisées à l'aide du SCID et les évaluations symptomatologiques à l'aide du BPRS. Dans ce contexte, nous avons pu montrer qu'une majorité de patients avaient été victimes d'expériences relationnelles traumatisantes en lien avec leurs premières figures d'attachement durant l'enfance. Nos résultats indiquent également l'importante prévalence d'un attachement insécure-détaché, qui reflète la dimension fonctionnelle des symptômes psychotiques visant la préservation du lien aux principales figures d'attachement. Ceux-ci montrent encore qu'un attachement insécure-détaché est associé à un début précoce de la maladie ainsi qu'à un pronostic défavorable. Deuxièmement, de nombreuses études ont montré que les patients psychotiques avaient davantage recours à des croyances et pratiques spirituelles/religieuses pour tenter de faire face à leurs difficultés que la population générale. Ce recours s'avère être efficace pour un grand nombre d'entre eux. Il leur permet souvent une meilleure gestion des difficultés, des symptômes et globalement améliore leur qualité de vie (Mohr et al., 2006). Nous avons donc examiné certaines des dimensions psychiques sousjacentes à ce type de stratégie de coping à l'aide de l'arrière-plan conceptuel de la théorie de l'attachement de Bowlby. Nous avons effectivement constaté qu'un grand nombre de participants, patients et contrôles, investissent des figures spirituelles sur le mode de l'attachement. Même en cas d'un attachement insécure, la majorité d'entre eux transposent leurs modèles internes opérants, acquis dans leur relation aux premières figures d'attachement, sur leur croyance en des figures spirituelles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le Programme vaudois de dépistage du cancer du sein promeut, organise et mène depuis 1999 une action de prévention auprès de la population féminine du canton âgée de 50 à 69 ans. Premier programme organisé de dépistage du cancer en Suisse, et généralisation d'un projet pilote (1993-1998), le Programme vaudois a grandement contribué au développement d'initiatives similaires dans d'autres cantons. Il demeure aujourd'hui, notamment par son bassin populationnel, le programme suisse qui génère le plus important volume annuel de mammographies de dépistage. Des évaluations indépendantes et régulières permettent de s'assurer que la qualité et l'efficacité d'un programme de dépistage répondent à des normes internationalement admises et périodiquement révisées. Le présent rapport évalue, après 15 ans d'activité (1999-2013), l'évolution temporelle de l'activité de dépistage (chapitre 2), de l'utilisation (chapitre 3) et des performances du programme vaudois de dépistage du cancer du sein (chapitre 4). Couvrant 240'000 mammographies et près de 80'000 femmes, ce rapport s'intéresse aussi, au-delà des indicateurs classiques de performance, à mieux évaluer certains effets indésirables du dépistage comme les résultats faussement positifs ou les cancers survenant entre 2 examens de dépistage (dits cancers d'intervalle), auxquels une section entière est dédiée (chapitre 5). Enfin, la compilation (en annexe) des publications récentes ou les plus significatives liées au programme vaudois et à ses résultats souligne sa visibilité et son implication dans le contexte international, ainsi que son rôle phare en Suisse dans la recherche « evidence-based » sur le dépistage du cancer du sein. [...] [Auteurs, p. 7]

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contexte : la prévalence des épisodes dépressifs majeurs parmi la population âgée générale est de 1-4%. Plusieurs études proposent la dissociation entre la dépression à début tardive (late onset depression, LOD), plus souvent associée à des déficits neuropsychologiques, des lésions cérébrales et des facteurs de risque cardio-vasculaire, et la dépression à début précoce (early onset depression, EOD) associée, elle, aux facteurs génétiques et à certains profiles de personnalité. Toutefois, aucune étude transversale ou longitudinale n'a jusqu'à maintenant mesuré et comparé de façon concomitante les profiles cognitifs, la neuro-imagerie (IRM) et les profiles de personnalité des patients âgés LOD et EOD euthymiques. Méthodes : ce travail se base sur une étude menée par différents services des Hôpitaux Universitaires de Genève (HUG) et du Centre Hospitalier Universitaire Vaudois (CHUV) qui ont collaboré afin de recruter le collectif de patients dépressifs nécessaire. La partie expérimentale est divisée en deux parties. La première, transversale, compare 30 EOD, 11 LOD et 30 sujets contrôles, puis 38 EOD à 62 sujets contrôles. Une évaluation neuropsychologique, des évaluations des lésions et volumes cérébraux à l'IRM, ainsi que des traits de personnalité ont été effectuées. La deuxième partie, longitudinale, évalue sur 2 ans 28 patients EOD à 48 sujets contrôles avec les mêmes outils. Résultats : lors de la première partie, transversale, les performances cognitives et les volumes cérébraux sont préservés chez les patients EOD, alors que les patients LOD présentent une réduction significative de la mémoire épisodique et un taux plus élevé de lésions cérébrales périventriculaires (hyperintensités de la matière blanche) en comparaison avec les patients EOD et les sujets contrôles. Au niveau des traits de personnalité, les patients EOD sont associés à un niveau élevé de Névrosisme, en particulier les facettes Anxiété (N1) et Dépression (N3) mais diminué d'Extraversion, en particulier les facettes Chaleur (E1) et Emotions positives (E6). Dans la seconde partie, longitudinale, les performances cognitives et les volumes cérébraux des patients EOD sont restés, après les 2 ans de suivi (follow-up) comparables aux sujets contrôles. Les niveaux élevés du Névrosisme et sa facette Anxiété (N1) constatés au baseline diminuèrent pour atteindre un niveau normal. Les niveaux diminués des facettes Chaleur (E1) et Emotions positives (E6) au baseline ne persistèrent pas non plus. Seule la facette Dépression (N3) est restée chez les patients EOD significativement plus élevée que chez les sujets contrôles après les 2 ans de suivi. Conclusion : nos résultats supportent la dissociation entre EOD, associée à des facteurs génétiques et psychosociaux, et LOD associée aux facteurs de risque et comorbidités cardio-vasculaires. Après rémission d'un épisode dépressif aigu, les performances cognitives ainsi que les volumes cérébraux des patients EOD restent intactes au long terme, alors que le patient LOD garde des lésions cérébrales ainsi que des atteintes au niveau de la mémoire épisodique. Au niveau de la personnalité, la facette Dépression (N3) du domaine Névrosisme, connu pour être un facteur de risque de dépression, reste une caractéristique bien présente chez le patient EOD.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Executive SummaryIn Nepal, landslides are one of the major natural hazards after epidemics, killing over 100 persons per year. However, this figure is an underreported reflection of the actual impact that landslides have on livelihoods and food security in rural Nepal. With predictions of more intense rainfall patterns, landslide occurrence in the Himalayas is likely to increase and continue to be one of the major impediments to development. Due to the remoteness of many localities and lack of resources, responsibilities for disaster preparedness and response in mountain areas usually lie with the communities themselves. Everyday life is full of risk in mountains of Nepal. This is why mountain populations, as well as other populations living in harsh conditions have developed a number of coping strategies for dealing with adverse situations. Perhaps due to the dispersed and remote nature of landslides in Nepal, there have been few studies on vulnerability, coping- and mitigation strategies of landslide affected populations. There are also few recommendations available to guide authorities and populations how to reduce losses due to landslides in Nepal, and even less so, how to operationalize resilience and vulnerability.Many policy makers, international donors, NGOs and national authorities are currently asking what investments are needed to increase the so-called 'resilience' of mountain populations to deal with climate risks. However, mountain populations are already quite resilient to seasonal fluctuations, temperature variations, rainfall patterns and market prices. In spite of their resilience, they continue to live in places at risk due to high vulnerability caused by structural inequalities: access to land, resources, markets, education. This interdisciplinary thesis examines the concept of resilience by questioning its usefulness and validity as the current goal of international development and disaster risk reduction policies, its conceptual limitations and its possible scope of action. The goal of this study is two-fold: to better define and distinguish factors and relationships between resilience, vulnerability, capacities and risk; and to test and improve a participatory methodology for evaluating landslide risk that can serve as a guidance tool for improving community-based disaster risk reduction. The objective is to develop a simple methodology that can be used by NGOs, local authorities and communities to reduce losses from landslides.Through its six case studies in Central-Eastern Nepal, this study explores the relation between resilience, vulnerability and landslide risk based on interdisciplinary methods, including geological assessments of landslides, semi-structured interviews, focus groups and participatory risk mapping. For comparison, the study sites were chosen in Tehrathum, Sunsari and Dolakha Districts of Central/Eastern Nepal, to reflect a variety of landslide types, from chronic to acute, and a variety of communities, from very marginalized to very high status. The study uses the Sustainable Livelihoods Approach as its conceptual basis, which is based on the notion that access and rights to resources (natural, human/institutional, economic, environmental, physical) are the basis for coping with adversity, such as landslides. The study is also intended as a contribution to the growing literature and practices on Community Based Disaster Risk Reduction specifically adapted to landslide- prone areas.In addition to the six case studies, results include an indicator based methodology for assessing and measuring vulnerability and resilience, a composite risk assessment methodology, a typology of coping strategies and risk perceptions and a thorough analysis of the relation between risk, vulnerability and resilience. The methodology forassessing vulnerability, resilience and risk is relatively cost-effective and replicable in a low-data environment. Perhaps the major finding is that resilience is a process that defines a community's (or system's) capacity to rebound following adversity but it does not necessarily reduce vulnerability or risk, which requires addressing more structural issues related to poverty. Therefore, conclusions include a critical view of resilience as a main goal of international development and disaster risk reduction policies. It is a useful concept in the context of recovery after a disaster but it needs to be addressed in parallel with vulnerability and risk.This research was funded by an interdisciplinary grant (#26083591) from the Swiss National Science Foundation for the period 2009-2011 and a seed grant from the Faculty of Geosciences and Environment at the University of Lausanne in 2008.Résumé en françaisAu Népal, les glissements de terrain sont un des aléas les plus dévastateurs après les épidémies, causant 100 morts par an. Pourtant, ce chiffre est une sous-estimation de l'impact réel de l'effet des glissements sur les moyens de subsistance et la sécurité alimentaire au Népal. Avec des prévisions de pluies plus intenses, l'occurrence des glissements dans les Himalayas augmente et présente un obstacle au développement. Du fait de l'éloignement et du manque de ressources dans les montagnes au Népal, la responsabilité de la préparation et la réponse aux catastrophes se trouve chez les communautés elles-mêmes. Le risque fait partie de la vie quotidienne dans les montagnes du Népal. C'est pourquoi les populations montagnardes, comme d'autres populations vivant dans des milieux contraignants, ont développé des stratégies pour faire face aux situations défavorables. Peu d'études existent sur la vulnérabilité, ceci étant probablement dû à l'éloignement et pourtant, les stratégies d'adaptation et de mitigation des populations touchées par des glissements au Népal existent.Beaucoup de décideurs politiques, bailleurs de fonds, ONG et autorités nationales se demandent quels investissements sont nécessaires afin d'augmenter la 'resilience' des populations de montagne pour faire face aux changements climatiques. Pourtant, ces populations sont déjà résilientes aux fluctuations des saisons, des variations de température, des pluies et des prix des marchés. En dépit de leur résilience, ils continuent de vivre dans des endroits à fort risque à cause des vulnérabilités créées par les inégalités structurelles : l'accès à la terre, aux ressources, aux marchés et à l'éducation. Cette thèse interdisciplinaire examine le concept de la résilience en mettant en cause son utilité et sa validité en tant que but actuel des politiques internationales de développement et de réduction des risques, ainsi que ses limitations conceptuelles et ses possibles champs d'action. Le but de cette étude est double : mieux définir et distinguer les facteurs et relations entre la résilience, la vulnérabilité, les capacités et le risque ; Et tester et améliorer une méthode participative pour évaluer le risque des glissements qui peut servir en tant qu'outil indicatif pour améliorer la réduction des risques des communautés. Le but est de développer une méthodologie simple qui peut être utilisée par des ONG, autorités locales et communautés pour réduire les pertes dues aux glissements.A travers les études de cas au centre-est du Népal, cette étude explore le rapport entre la résilience, la vulnérabilité et les glissements basée sur des méthodes interdisciplinaires ; Y sont inclus des évaluations géologiques des glissements, des entretiens semi-dirigés, des discussions de groupes et des cartes de risques participatives. Pour la comparaison, les zones d'études ont été sélectionnées dans les districts de Tehrathum, Sunsari et Dolakha dans le centre-est du Népal, afin de refléter différents types de glissements, de chroniques à urgents, ainsi que différentes communautés, variant de très marginalisées à très haut statut. Pour son cadre conceptuel, cette étude s'appuie sur l'approche de moyens de subsistance durable, qui est basée sur les notions d'accès et de droit aux ressources (naturelles, humaines/institutionnelles, économiques, environnementales, physiques) et qui sont le minimum pour faire face à des situations difficiles, comme des glissements. Cette étude se veut aussi une contribution à la littérature et aux pratiques en croissantes sur la réduction des risques communautaires, spécifiquement adaptées aux zones affectées par des glissements.En plus des six études de cas, les résultats incluent une méthodologie basée sur des indicateurs pour évaluer et mesurer la vulnérabilité et la résilience, une méthodologie sur le risque composé, une typologie de stratégies d'adaptation et perceptions des risques ainsi qu'une analyse fondamentale de la relation entre risque, vulnérabilité et résilience. Les méthodologies pour l'évaluation de la vulnérabilité, de la résilience et du risque sont relativement peu coûteuses et reproductibles dans des endroits avec peu de données disponibles. Le résultat probablement le plus pertinent est que la résilience est un processus qui définit la capacité d'une communauté (ou d'un système) à rebondir suite à une situation défavorable, mais qui ne réduit pas forcement la vulnérabilité ou le risque, et qui requiert une approche plus fondamentale s'adressant aux questions de pauvreté. Les conclusions incluent une vue critique de la résilience comme but principal des politiques internationales de développement et de réduction des risques. C'est un concept utile dans le contexte de la récupération après une catastrophe mais il doit être pris en compte au même titre que la vulnérabilité et le risque.Cette recherche a été financée par un fonds interdisciplinaire (#26083591) du Fonds National Suisse pour la période 2009-2011 et un fonds de préparation de recherches par la Faculté des Géosciences et Environnement à l'Université de Lausanne en 2008.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Rapport de synthèse : L'article qui fait l'objet de ma thèse évalue une nouvelle approche pédagogique pour l'apprentissage de certains chapitres de physiopathologie. Le dispositif pédagogique se base sur l'alternance d'apprentissage ex-cathedra et de l'utilisation d'un site web comprenant des vignettes cliniques. Lors de la consultation de ces-dernières, l'étudiant est invité à demander des examens de laboratoire dont il pourrait justifier la pertinence selon le cas clinique étudié. La nouveauté du procédé réside dans le fait que, préalablement à son cours ex-cathedra, l'enseignant peut consulter les statistiques de demandes de laboratoire et ainsi orienter son cours selon les éléments mal compris par les étudiants. A la suite du cours ex-cathedra, les étudiants peuvent consulter sur internet la vignette clinique complète avec des explications. A l'issue de tout le cours, une évaluation auprès des étudiants a été conduite. Le procédé a été mis en place durant deux années consécutives et l'article en discute notamment les résultats. Nous avons pu conclure que cette méthode innovatrice d'enseignement amène les étudiants à mieux se préparer pour les cours ex-cathedra tout en permettant à l'enseignant d'identifier plus précisément quelles thématiques étaient difficiles pour les étudiants et donc d'ajuster au mieux son cours. Mon travail de thèse a consisté à créer ce dispositif d'apprentissage, à créer l'application web des vignettes cliniques et à l'implanter durant deux années consécutives. J'ai ensuite analysé les données des évaluations et écrit l'article que j'ai présenté à la revue 'Medical Teacher'. Après quelques corrections et précisions demandées par le comité de lecture, l'article a été accepté et publié. Ce travail a débouché sur une seconde version de l'application web qui est actuellement utilisée lors du module 3.1 de 3è année à l'Ecole de Médecine à Lausanne. Summary : Since the early days of sexual selection, our understanding of the selective forces acting on males and females during reproduction has increased remarkably. However, despite a long tradition of experimental and theoretical work in this field and relentless effort, numerous questions remain unanswered and many results are conflicting. Moreover, the interface between sexual selection and conservation biology has to date received little attention, despite existing evidence for its importance. In the present thesis, I first used an empirical approach to test various sexual selection hypotheses in a population of whitefish of central Switzerland. This precise population is characterized by a high prevalence of gonadal alterations in males. In particular, I challenged the hypothesis that whitefish males displaying peculiar gonadal features are of lower genetic quality than other seemingly normal males. Additionally, I also worked on identifying important determinant of sperm behavior. During a second theoretical part of my work, which is part of a larger project on the evolution of female mate preferences in harvested fish populations, I developed an individual-based simulation model to estimate how different mate discrimination costs affect the demographical behavior of fish populations and the evolutionary trajectories of female mate preferences. This latter work provided me with some insight on a recently published article addressing the importance of sexual selection for harvesting-induced evolution. I built upon this insight in a short perspective paper. In parallel, I let some methodological questions drive my thoughts, and wrote an essay about possible synergies between the biological, the philosophical and the statistical approach to biological questions.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

[Résumé (extrait)] Lancé en octobre 1999, le Programme valaisan de dépistage du cancer du sein a pour mission de promouvoir, d'organiser et de mener une action de dépistage auprès de la population féminine valaisanne âgée de 50 à 70 ans. Ce programme est régulièrement évalué, de manière indépendante, afin de s'assurer que sa qualité et son efficacité répondent à des normes internationalement admises tout en minimisant ses effets adverses. Ces évaluations ont mis en évidence un niveau de performances globalement satisfaisant et suggéré un potentiel d'amélioration, notamment de la qualité des lectures radiologiques. Dans un souci d'optimiser les performances, la direction du Programme a mené ces dernières années plusieurs actions auprès de ses radiologues et pris quelques mesures. Ce rapport thématique traite de l'évolution des performances du programme, principalement au cours de la dernière décennie (2002-11), c'est-à-dire après sa phase de démarrage (1999-2001). Les tendances des principaux indicateurs de performance et leurs associations avec les actions et mesures réalisées, qui ont été répertoriées et classées selon leur types et objectifs, sont analysées. Les facteurs les plus influents sur la qualité des lectures radiologiques sont quantifiés de manière à faciliter toute décision interventionnelle. Les cancers d'intervalle (1999-2010) du Programme sont étudiés afin d'en apprécier la fréquence, d'en établir le profil pronostique et de déterminer les caractéristiques clinicoépidémiologiques qui les distinguent des cancers dépistés dans le cadre du Programme.