152 resultados para raisonnement
Resumo:
Introduction L'écriture manuelle fluide et automatisée constitue, avec la lecture, les fondements au développement des compétences scolaires. En effet, l'enfant peut développer le langage écrit avec l'acquisition de l'écriture, il a besoin d'une écriture manuelle automatisée lors d'évaluations scolaires écrites. De plus, la sollicitation de l'écriture manuelle augmente au cours de la scolarité, que ce soit au niveau de l'endurance, de la vitesse ou de la qualité. L'acquisition de l'écriture requiert des processus cognitifs, linguistiques et perceptivomoteurs, définis en tant que facteurs internes ou endogènes (Beeson et al., 2003) et résulte d'une démarche d'enseignement et d'un processus d'apprentissage constituant des facteurs externes ou exogènes. Les perturbations de l'acquisition de l'écriture sont nommées de différentes manières dans la littérature scientifique. Les chercheurs anglo-saxons convoquent la notion de faible écriture manuelle (poor handwriting), de troubles grapho-moteurs ou de difficultés d'écriture (Weintraub & Graham, 2000 ; Jongmans, Smits-Engelsman, & Schoemaker, 2003 ; Volman, van Schendel, &Jongmans, 2006) qui se caractérisent par une absence de régularité du tracé et/ ou de l'espace entre les mots, par des lettres ambiguës (Rosenblum, Weiss, & Parush, 2006). Les auteurs francophones, le plus souvent de formation médicale (Gubbay & de Klerk, 1995 ; Mazeau, 2005), utilisent plus fréquemment le diagnostic de dysgraphie qui renvoie à des difficultés d'assemblage de ronds et de traits pour former une lettre perturbant ainsi l'apprentissage de l'écriture (Mazeau, 2005). Selon Mazeau, la dysgraphie fait partie des troubles d'apprentissage. Les conséquences d'une faible écriture manuelle sont multiples. Si l'écriture n'est pas automatisée, l'enfant est placé dans une situation de double tâche nécessitant une attention focalisée à la fois sur l'acte d'écrire et sur le raisonnement nécessaire pour réaliser les exigences d'une tâche scolaire (Berningér et al., 1997). Si l'enfant se concentre sur la formation des lettres et le contrôle des mouvements, le raisonnement nécessaire à l'application de règles de grammaire et d'orthographe est perturbé tout comme la qualité des idées lors d'une composition. L'enfant présentant une écriture lente ne parviendra pas à finaliser son travail dans les situations de tests. Les difficultés d'écriture manuelle constituent un facteur de prédiction des troubles d'apprentissage (Harvey & Henderson, 1997 ; Simner, 1982) et elles sont fréquemment citées parmi les causes de la littératie. Car, comme le relèvent Berninger, Mizokawa et Bragg (1991), l'enfant présentant des difficultés d'écriture manuelle aura tendance à éviter toute activité d'écriture renforçant ainsi l'écart avec ses pairs dans ce domaine. Si ces comportements d'évitement se situent dans la période d'apprentissage de l'écriture, ils perturberont la mémorisation des lettres. En effet, la mémorisation des lettres est meilleure lorsque l'apprentissage se fait en situation d'écriture manuelle qu'en situation de lecture uniquement (Longcamp, Boucard, Guilhodes, & Velay, 2006). Par ailleurs, les épreuves dont la qualité de l'écriture est faible font l'objet d'évaluation moins favorable que celles dont l'écriture est plus facilement lisible. Les enseignants/es seraient alors moins persévérants/es dans leur lecture et plus sévères lors de la notation d'une rédaction. Ils, elles développeraient une faible perception des compétences en composition lorsqu'ils, elles sont confrontés/es à une épreuve dont la qualité est peu fluide et peu lisible (Alston & Taylor, 1987). L'identification des difficultés d'écriture peut se fairé de différentes manières (Kozatiek & Powell, 2002 ; Simons & Thijs, 2006 ). D'une part, l'appréciation de la qualité et de la vitesse d'écriture manuelle peut être subjective avec l'avis de l'enseignant et, d'autre part, objective avec l'utilisation de tests standardisés comportant des critères permettant de mesurer la vitesse et la qualité de l'écriture. Les conditions de passation des évaluations peuvent varier (copie, dictée ou composition) et influencer la vitesse et la qualité de l'écriture. La vitesse est moindre et la taille des lettres est inférieure en situation de composition qu'en situation de copie tandis que la régularité du tracé est plus stable en situation de copie que lors d'une composition. Si le dépistage et l'identification des difficultés d'écriture contribuent à la prévention de risques ultérieurs tels que de faibles compétence en littératie, la compréhension des causes de ces difficultés permettra le développement de moyens de remédiation de ces difficultés. Dans la littérature scientifique traitant de cette problématique, des facteurs endogènes ou exogènes peuvent être identifiés. Les facteurs endogènes regroupent autant la maturation développementale et le genre que les fonctions sensorimotrices telles que les dextérités manuelle et digitale, l'intégration visuomotrice, la visuoperception, l'attention visuelle et les fonctions cognitives. En outre, les troubles du développement tels qu'un trouble du langage, un déficit de l'attention ou un Trouble de l'acquisition de la coordination (TAC) (DSM-IV) (American Psychiatric Association, 2003) peuvent perturber l'acquisition de l'écriture. Les facteurs exogènes correspondent soit aux facteurs environnementaux tels que la position de l'enfant ou l'outil scripteur utilisé, soit aux modalités et à la durée de l'enseignement de l'écriture. En effet, la durée de l'enseignement de l'écriture et les modalités pédagogiques contribuent à marquer les différences interindividuelles pour la qualité et pour la vitesse de l'écriture. Actuellement, l'enseignement de l'écriture est, dans la plupart des programmes scolaires, intégré dans le cadre d'autres cours et ne fait pas l'objet d'un enseignement spécifique. Cette pratique entraîné un auto-apprentissage de la part de l'enfant et, par conséquent, un apprentissage implicite de l'écriture alors que les bénéfices d'un enseignement explicite ont été largement mis en évidence par Willingham et Goedert-Eschmann (1999). En effet, ces auteurs ont montré qu'un enseignement explicite favorise l'acquisition, la performance et le transfert d'apprentissage de manière plus importante que l'apprentissage implicite. Paradoxalement, alors que l'enseignement de l'écriture tend à être délaissé dans les programmes scolaires, les études mettant en évidence l'efficacité de l'enseignement de l'écriture (Berninger et al., 1997 ; Jongmans, Linthorst-Bakker, Westenberg & SmitsEngelsman et al., 2003 ; Schoemaker, Niemeijer, Reynders, & Smits-Engelsman , 2003) sont nombreuses. Leurs résultats montrent que l'enseignement d'une seule catégorie d'écriture (liée ou scripte) est plus efficace que l'enseignement de deux catégories d'écriture scripte en début d'apprentissage et écriture liée dans un second temps. Un enseignement régulier et intensif consacré à l'écriture au début de la scolarité va permettre une acquisition plus rapide de l'écriture et de la lecture (Graham & Weintraub, 1996 ; Denton, Cope & Moser, 2006). Selon Berninger, Abbot, Abbot, Graham et Richards (2002), la lecture et l'écriture devraient faire l'objet d'un enseignement coordonné et harmonisé. L'enseignement de l'écriture favorisant les liens avec les contextes d'utilisation de l'écriture montre une efficacité plus grande que lorsqu'il est déconnecté de son contexte (Denton, Cope, & Moser, 2006). L'enjeu d'une automatisation de l'écriture de qualité est important et relève d'une priorité afin de permettre aux enfants de développer de manière optimale leurs compétences académiques. Lorsque des troubles d'écriture sont constatés, l'identification des causes liées à ces difficultés tout comme une prise en charge spécifique faciliteront l'acquisition de cette compétence fondamentale (Berninger et al., 1997). Dans ces perspectives, cette thèse vise à identifier les facteurs endogènes et les facteurs exogènes intervenant dans l'écriture manuelle, que ce soit au niveau de la qualité ou de la vitesse de l'écriture. Au niveau théorique, elle développe l'étai des connaissances dans le domaine de l'écriture en neuropsychologie, en neurosciences et en sciences du mouvement humain. Elle présente, dans une perspective développementale, les modèles de l'apprentissage de l'écriture ainsi que les étapes d'acquisition de l'écriture tout en considérant les différences liées au genre. Ensuite, la description des difficultés d'écriture manuelle précède les moyens d'évaluation de l'écriture. Un chapitre est consacré aux fonctions perceptivomotrices et cognitives influençant l'écriture. Puis, comme les difficultés d'acquisition de l'écriture manuelle font partie du TAC, ce trouble est développé dans le chapitre 5. Enfin, les facteurs exogènes sont présentés dans le chapitre 6, ils comprennent les conditions environnementales (position de l'enfant, types de papiers, types d'outils scripteurs) ainsi que les dimensions d'un programme d'enseignement de l'écriture manuelle. Les effets des programmes de remédiation ou d'enseignement intensif de l'écriture sont traités en dernière partie du chapitre 6. Cette thèse est composée d'une partie de recherche fondamentale et d'une partie de recherche appliquée. La recherche fondamentale, qui comprend deux étapes d'investigation (Etudes 1 et 2), a pour objectifs d'identifier les facteurs endogènes prédictifs d'une écriture manuelle non performante (dextérités digitale et manuelle, intégration visuomotrice ou visuoperception) et d'investiguer les relations entre la lecture, l'attention visuelle, la mémoire audtive et l'écriture manuelle. De plus, elle déterminera la prévalence du TAC parmi les enfants présentant une faible écriture manuelle. La recherche appliquée comporte deux expérimentations. La première expérience a pour but de mesurer les effets d'un programme d'enseignement de l'écriture introduit en fin de deuxième année primaire visant à permettre aux enfants les plus faibles dans le domaine de l'écriture d'améliorer leurs performances. La seconde expérience analyse les effets d'un programme d'enseignement intensif de l'écriture manuelle qui s'est déroulé au début de la première année de scolarité obligatoire. L'acquisition de l'écriture est complexe tant au niveau du contróle moteur que du codage phonème -graphème ou de l'attention. L'écriture manuelle, en tant que compétence de base dans le développement des acquisitions scolaires, demeure tout au long de la scolarité et de la vie professionnelle, une compétence incontournable malgré le développement des nouvelles technologies. Remplir un formulaire, prendre des notes dans une séance ou à un cours, signer des documents, consigner des notes dans des dossiers, utiliser des écrans tactiles constituent des activités nécessitant une écriture manuelle fonctionnelle.
Resumo:
L'enquête criminelle veut comprendre des événements singuliers, identifier les personnes impliquées et délimiter leur rôle en regard d'un ensemble de règles. Le raisonnement chemine dans les deux sens. Les traces prélevées sur les lieux indiquent ce qui s'est passé et aident à décrite les entités pertinentes, voire de pointer directement sur un ensemble de personnes et d'objets. A l'inverse, le raisonnement part souvent de cercles de personnes, cherche à comprendre les relations qu'elles entretiennent entre elles et examine les liens potentiels avec des activités. C'est parfois de grandes quantités d'information qu'il faut gérer et interpréter par la construction de banques de données et l'élaboration de moyens de visualiser une information complexe. Le forensicien résout aussi dans une grande variété de circonstances la terrible inconnue de l'identité des personnes décédées. Les méthodes de l'enquête criminelle et d'identification portent sur des personnes et des lieux incertains. Les conséquences désagréables que peuvent subir les intéressés faussement désignés et leurs proches impliquent systématiquement une analyse des risques, notamment une délimitation claire du potentiel et des limites des méthodes développées.
Resumo:
Nous décrivons dans cet article la pratique de l'expertise psychiatrique pénale telle qu'elle est effectuée au centre d'expertises de l'Institut de psychiatrie légale du département de psychiatrie du CHUV à Lausanne. Y est notamment abordée la question de la place réservée à l'utilisation d'instruments d'évaluation du risque de récidive. Qu'ils soient actuariels ou à type de raisonnement clinique structuré, ces instruments nous paraissent pouvoir trouver à s'inscrire dans une démarche méthodologique rigoureuse, dans la mesure où celle-ci se déploie dans une perspective qui reste fondée sur la clinique.
Resumo:
Le plan Nous nous proposons de distinguer dans l'oeuvre d'Ovsjaniko-Kulikovskij quatre étapes selon les sujets qu'il aborde dont les trois premières nous concernent directement: 1) les oeuvres de jeunesse portant sur le sanskrit et sur l'histoire de la pensée (1882-1892), 2) le noeud de sa conception (1893-1896), 3) les études spécialisées et les conclusions (1897-1902) et 4) ouvrages sur la théorie de la littérature et de l'art (à partir de 1903 environ, cette division étant approximative). Notre recherche ne suivra pas un plan strictement chronologique. Nous comptons évoquer les oeuvres en suivant leur apparition sans pour autant faire l'analyse détaillée de chacune d'elles. Au contraire, notre méthode d'analyse consistera à 1) dégager les idées maîtresses d'Ovsjaniko-Kulikovskij et leurs interrelations et 2) suivre leur évolution en les rapportant aux théories voisines en linguistique et dans d'autres sciences. Dans la partie I, intitulée «Une indo-européanistique évolutionniste», nous concentrerons notre attention tout d'abord sur les spécificités du parcours intellectuel d'Ovsjaniko-Kulikovskij par rapport à ses contemporains. Nous suivrons l'influence sur lui de cet «air du temps » de la fin du XIX' siècle qui rendait ses recherches indo-européennes évolutionnistes, à partir du réseau des présupposés de cette théorie. Nous verrons comment naît son insatisfaction devant les conceptions existantes du langage et comment se formulent les tâches et la problématique de la nouvelle conception qu'il veut élaborer. Dans la partie II, intitulée «Vers une linguistique énergétique», nous analyserons la constitution des piliers de sa conception, de ses idées originales qui la distinguent de ses contemporains. Nous nous intéresserons à la question du «nouveau» dans la science en nous référant aux conditions de production d'une conception nouvelle, à l'«air du temps» et à l'«air du lieu»: le raisonnement énergétique dans les sciences. Nous procéderons à une comparaison constante avec les conceptions de ses prédécesseurs (en particulier de ceux qu'il cite lui-même en tant que tels) et de ses contemporains. Dans la partie III, intitulée «Une syntaxe énergétique», nous nous intéresserons à ce que la conception d'Ovsjaniko-Kulikovskij a apporté de nouveau aux questions du «temps». A-t-il pu construire une «linguistique scientifique»? Comment le raisonnement énergétique sert-il à la fois de moteur et de frein à sa conception, lui ouvre-t-il de nouveaux horizons et lui dicte-t-il des limites? Dans la conclusion, enfin, nous dresserons le bilan de l'étude en démontrant quel intérêt il y a, pour l'histoire de la linguistique, à situer un auteur dans un tel croisement d'associations spatio-temporelles.
Resumo:
La quatrième version de l'échelle d'intelligence de Wechsler pour enfants (WISC-IV) permet le calcul du QI Total et de quatre indices factoriels : compréhension verbale, raisonnement perceptif, vitesse de traitement et mémoire de travail. En 1998, Prifitera et al, ont préconisé le calcul de l'indice d'aptitude général (IAG) comme alternative au quotient intellectuel total (QIT), et cela à partir des scores de compréhension verbale et de raisonnement perceptif. La première étude présentée dans cet article a pour objectif d'établir les normes francophones pour le score IAG du WISC-IV, en utilisant une procédure d'approximation statistique. La deuxième étude vise à examiner la validité de ces normes, en les confrontant à des données recueillies sur un échantillon de 60 enfants. La corrélation entre QIT et IAG est de 0,91 et la différence relative moyenne de 0,18 point. Ces normes permettent d'utiliser le score IAG comme alternative au QIT dans certaines situations diagnostiques.
Resumo:
La fécondation in vitro (FIV) n'est pas remboursée. Le Tribunal fédéral le répète inlassablement depuis bientôt 30 ans. Néanmoins, les assurées ne baissent pas les bras et périodiquement resoumettent la question, espérant que de nouvelles données scientifiques sauront infléchir la Haute Cour. En vain. Le tribunal l'a redit en octobre 2012:1 cette prestation n'est pas à charge des caisses.2 L'ordonnance sur les prestations de l'assurance-maladie (OPAS3) le prévoit explicitement, et il n'y a simplement pas lieu d'examiner une disposition d'une ordonnance du Département fédéral de l'intérieur (DFI). Le raisonnement est toutefois un peu court. Premièrement, le refus du Tribunal fédéral d'examiner si l'ordonnance respecte le cadre de la délégation législative ne convainc pas. Deuxièmement, la FIV remplit les critères imposés à la prise en charge tels que décidés par le législateur dans la loi sur l'assurance-maladie (LAMal4). Enfin, les assurés qui décident de recourir contre un refus de remboursement sont privés des garanties minimales de procédure que leur garantit pourtant la Convention européenne des droits de l'homme. La présente contribution commence par une brève description de la FIV. Elle expose ensuite la législation applicable (partie 2) et la jurisprudence fédérale qui en découle (partie 3). La partie suivante critique la position du Tribunal fédéral au regard des principes énoncés dans la législation. Une comparaison avec l'insémination intra-utérine (IIU), pour laquelle le Tribunal fédéral a admis le remboursement, met en lumière les incohérences de la jurisprudence. La compatibilité de la jurisprudence fédérale avec l'art. 6 de la Convention européenne sur les droits de l'homme est évaluée. La conclusion plaide pour une réforme partielle du système procédural gouvernant la prise en charge des prestations de soins, mais aussi des techniques médicales alternatives.
Resumo:
In Switzerland, the annual cost of damage by natural elements has been increasing for several years despite the introduction of protective measures. Mainly induced by material destruction building insurance companies have to pay the majority of this cost. In many European countries, governments and insurance companies consider prevention strategies to reduce vulnerability. In Switzerland, since 2004, the cost of damage due to natural hazards has surpassed the cost of damage due to fire; a traditional activity of the Cantonal Insurance company (EGA). Therefore, the strategy for efficient fire prevention incorporates a reduction of the vulnerability of buildings. The thesis seeks to illustrate the relevance of such an approach when applied to the damage caused by natural hazards. It examines the role of insurance place and its involvement in targeted prevention of natural disasters. Integrated risk management involves a faultless comprehension of all risk parameters The first part of the thesis is devoted to the theoretical development of the key concepts that influence risk management, such as: hazard, vulnerability, exposure or damage. The literature on this subject, very prolific in recent years, was taken into account and put in perspective in the context of this study. Among the risk parameters, it is shown in the thesis that vulnerability is a factor that we can influence efficiently in order to limit the cost of damage to buildings. This is confirmed through the development of an analysis method. This method has led to the development of a tool to assess damage to buildings by flooding. The tool, designed for the property insurer or owner, proposes several steps, namely: - Vulnerability and damage potential assessment; - Proposals for remedial measures and risk reduction from an analysis of the costs of a potential flood; - Adaptation of a global strategy in high-risk areas based on the elements at risk. The final part of the thesis is devoted to the study of a hail event in order to provide a better understanding of damage to buildings. For this, two samples from the available claims data were selected and analysed in the study. The results allow the identification of new trends A second objective of the study was to develop a hail model based on the available data The model simulates a random distribution of intensities and coupled with a risk model, proposes a simulation of damage costs for the determined study area. Le coût annuel des dommages provoqués par les éléments naturels en Suisse est conséquent et sa tendance est en augmentation depuis plusieurs années, malgré la mise en place d'ouvrages de protection et la mise en oeuvre de moyens importants. Majoritairement induit par des dégâts matériels, le coût est supporté en partie par les assurances immobilières en ce qui concerne les dommages aux bâtiments. Dans de nombreux pays européens, les gouvernements et les compagnies d'assurance se sont mis à concevoir leur stratégie de prévention en termes de réduction de la vulnérabilité. Depuis 2004, en Suisse, ce coût a dépassé celui des dommages dus à l'incendie, activité traditionnelle des établissements cantonaux d'assurance (ECA). Ce fait, aux implications stratégiques nombreuses dans le domaine public de la gestion des risques, résulte en particulier d'une politique de prévention des incendies menée efficacement depuis plusieurs années, notamment par le biais de la diminution de la vulnérabilité des bâtiments. La thèse, par la mise en valeur de données actuarielles ainsi que par le développement d'outils d'analyse, cherche à illustrer la pertinence d'une telle approche appliquée aux dommages induits par les phénomènes naturels. Elle s'interroge sur la place de l'assurance et son implication dans une prévention ciblée des catastrophes naturelles. La gestion intégrale des risques passe par une juste maîtrise de ses paramètres et de leur compréhension. La première partie de la thèse est ainsi consacrée au développement théorique des concepts clés ayant une influence sur la gestion des risques, comme l'aléa, la vulnérabilité, l'exposition ou le dommage. La littérature à ce sujet, très prolifique ces dernières années, a été repnse et mise en perspective dans le contexte de l'étude, à savoir l'assurance immobilière. Parmi les paramètres du risque, il est démontré dans la thèse que la vulnérabilité est un facteur sur lequel il est possible d'influer de manière efficace dans le but de limiter les coûts des dommages aux bâtiments. Ce raisonnement est confirmé dans un premier temps dans le cadre de l'élaboration d'une méthode d'analyse ayant débouché sur le développement d'un outil d'estimation des dommages aux bâtiments dus aux inondations. L'outil, destiné aux assurances immobilières, et le cas échéant aux propriétaires, offre plusieurs étapes, à savoir : - l'analyse de la vulnérabilité et le potentiel de dommages ; - des propositions de mesures de remédiation et de réduction du risque issues d'une analyse des coûts engendrés par une inondation potentielle; - l'adaptation d'une stratégie globale dans les zones à risque en fonction des éléments à risque. La dernière partie de la thèse est consacrée à l'étude d'un événement de grêle dans le but de fournir une meilleure compréhension des dommages aux bâtiments et de leur structure. Pour cela, deux échantillons ont été sélectionnés et analysés parmi les données de sinistres à disposition de l'étude. Les résultats obtenus, tant au niveau du portefeuille assuré que de l'analyse individuelle, permettent de dégager des tendances nouvelles. Un deuxième objectif de l'étude a consisté à élaborer une modélisation d'événements de grêle basée sur les données à disposition. Le modèle permet de simuler une distribution aléatoire des intensités et, couplé à un modèle d'estimation des risques, offre une simulation des coûts de dommages envisagés pour une zone d'étude déterminée. Les perspectives de ce travail permettent une meilleure focalisation du rôle de l'assurance et de ses besoins en matière de prévention.
Resumo:
Les résultats des recherches contemporaines, montrant notamment l'importance du raisonnement fluide, de la mémoire de travail (IMT) et de la vitesse de traitement (IVT) dans le fonctionnement cognitif, ont conduit les concepteurs de la WAIS-IV à introduire de nouvelles épreuves pour renforcer l'évaluation de ces dimensions cognitives. L'interprétation des scores de la WAIS-IV repose maintenant sur quatre indices factoriels (ICV, IRP, IMT et IVT), ainsi que sur le QIT. Les concepteurs de la WAIS-IV indiquent que l'un des objectifs de la révision consistait à actualiser les fondements théoriques de cette échelle. Pourtant, la structure globale de la WAIS-IV ne correspond que partiellement à celle proposée dans le modèle qui fait consensus aujourd'hui, le modèle de Cattell-Horn-Carroll (CHC). Par exemple, la WAIS-IV ne propose pas d'indice de raisonnement fluide, bien que les constructeurs soulignent l'importance de cette dimension dans le fonctionnement cognitif. Dans cet article, nous proposons, pour la WAIS-IV, les normes francophones de cinq scores composites CHC, à savoir le raisonnement fluide (Gf), compréhension-connaissances (Gc), le traitement visuel (Gv), la mémoire à court terme (Gsm), et l'IVT (Gs). Ces normes ont été établies en utilisant une procédure d'approximation statistique. À l'instar des scores CHC que nous avons proposés pour le WISCIV, ces normes pour la WAIS-IV permettent aux cliniciens de basculer vers une grille d'interprétation basée sur le modèle dominant et d'utiliser les cinq scores composites CHC en complément des quatre indices standard dans le cadre d'analyses normatives et ipsatives.
Resumo:
Objectifs : Présenter des cas cliniques d'imagerie d'urgences en imagerie abdominale. Détailler le raisonnement qui conduit à la liste des hypothèses et comment le diagnostic final peut être retenu. Définir en quoi ces dossiers sont intéressants, soit du fait de leur présentation caractéristique, soit en raison de leur caractère inhabituel mais pas exceptionnel, soit parce qu'ils ont conduit à des erreurs d'interprétation lorsqu'ils se sont présentés.
Resumo:
Bien que la lutte contre le dopage poursuive de nombreux objectifs à fin de détection, réduction, neutralisation et/ou prévention du dopage, l'approche actuelle se focalise essentiellement sur le processus judiciaire. A l'instar de la prise de décision dans le domaine de l'application de la loi, l'antidopage pourrait voir la portée et l'efficacité de son activité s'améliorer sensiblement en s'appuyant sur le Renseignement Forensique. En effet, des bénéfices notables pourraient découler d'une récolte d'information à plus large spectre, suivie d'une structuration et d'un traitement des données approfondis. Le Renseignement Forensique pourrait apporter une dimension logique étendue à l'interprétation des données relatives aux activités de dopage afin de supporter une approche globale et proactive outrepassant les limitations de l'approche actuelle réactive et du cas par cas. L'information provenant d'une variété de sources telles que des études physiologiques, épidémiologiques et sociologiques alimenterait une mémoire organisée afin de fournir du renseignement en temps réel sur la taille, la gravité et l'évolution de tout phénomène relatif au dopage. Du fait de la complexité du dopage, intégrer ces éléments aux résultats de chimie analytique des athlètes et au suivi longitudinal des biomarqueurs de dopage serait d'une grande aide pour élaborer des stratégies adaptées à chaque situation, que le phénomène soit global ou un cas isolé. Le processus du renseignement se fonde avant tout sur un raisonnement logique. La polyvalence et la flexibilité en découlant seraient de précieux atouts pour détecter, neutraliser, mettre fin et/ou prévenir le dopage, individuel ou organisé, ou le trafic de produits dopants. Cette méthodologie permettrait également d'affiner le ciblage des athlètes ou équipes et de fournir des preuves de dopage en l'absence de résultats d'analyses anormaux. Ainsi, par le Renseignement Antidopage une réponse proactive pourrait être proposée à tout phénomène de dopage potentiel ou émergent, ou aux problèmes existants en présentant des actions et/ou politiques innovantes.
Resumo:
Nesta dissertação procura-se analisar a problemática da “Centralização versus Descentralização na Governação do Sistema Educativo de Cabo Verde: lógicas em análise” no período compreendido entre (1975 a 2006). Constata-se que Cabo Verde, depois de se tornar um país soberano e independente, assistiu a momentos de grande concentração e de grande centralização na administração do Sistema Educativo. Ao longo deste período assistiuse também a momentos de desconcentração e de ideias de descentralização que culminaram com a abertura do sistema político pluripartidário. Essa abertura abriu a possibilidade de uma nova dinâmica de transformação nos deferentes sectores da administração do sistema educacional. As mudanças políticas verificadas no país, permite-nos conhecer e desocultar as razões, as lógicas e as racionalidades que presidem a manutenção de um sistema centralizado de governação do Sistema Educativo, apesar da presença de forças políticas com diversidades ideológicas. Uma vez conhecido o historial da organização, administração e gestão do Sistema Educativo Cabo-verdiano, a partir de uma retrospectiva histórica, debruçámo-nos sobre as principais teorias que estão na base das perspectivas da centralização e descentralização, e seus conceitos associados enquanto modelo de análise teórica, para tentar perceber este aparente paradoxo. Na parte empírica, a metodologia utilizada apoia-se na abordagem qualitativa de investigação, na qual utilizámos a entrevista, a análise documental e conversas informais, que nos permitiram confirmar ou infirmar a problemática inicialmente formulada. Os dados obtidos dez entrevistados, nomeadamente os responsáveis da política educativa, os administradores do sistema, e os directores dos estabelecimentos de ensino público, levam-nos a tirar várias conclusões sobre um Sistema Educativo centralizado, com uma relativa margem de autonomia. Apesar de encontrarem algumas vantagens no modelo centralizado, a maioria dos entrevistados sublinha a relevância da opção por um modelo descentralizado de governação do Sistema Educativo.
Resumo:
STRUCTURE DU DOCUMENT ET PRINCIPALES CONTRIBUTIONS CHAPITRE 1 INTRODUCTION ET MÉTHODOLOGIE Le chapitre 1 présente un aperçu de la recherche, le contexte, les objectifs, la méthodologie, la démarche. CHAPITRE 2 : ÉTAT DE LA QUESTION Le chapitre 2 présente un état de la question des principaux concepts : les compétences, la gestion des compétences, les systèmes de gestion des compétences. La question de la gestion des compétences en sciences de gestion, et son lien avec la stratégie de l'entreprise a beaucoup occupé les chercheurs et les praticiens. On peut distinguer deux tendances principales : les recherches provenant du champ disciplinaire de la stratégie d'entreprise, regroupées par commodité sous l'étiquette «approche stratégique », et les recherches issues du domaine de la gestion des ressources humaines, qu'on appellera GRH. Au-delà du vocabulaire souvent commun (ressources, compétences), de la vision partagée qu'il est nécessaire de voir l'entreprise « de l'intérieur » et non plus uniquement dans son environnement, les deux approches ont des problématiques très similaires, comme le lien avec la performance ou les changements organisationnels induits par une démarche compétence. Pourtant, les divergences subsistent. L'approche stratégique procède d'un niveau « macro »pour identifier des « compétences-clés », et peine souvent à opérationnaliser ce concept. Les démarches GRH ont un souci analytique de décomposition de la compétence et de la ressource qui risque de noyer la démarche dans le détail. En outre, alors que le vocabulaire est similaire, les définitions divergent. Concilier ces divergences, afin de conserver les avantages de l'une et de l'autre de ces théories, à savoir le lien avec la stratégie pour l'une et le souci d'opérationnaliser les concepts pour l'autre est peut être plus aisé à l'heure ou les nouvelles conditions auxquelles sont soumises les entreprises qui oeuvrent dans l' »économie de la connaissance ». Les technologies qui deviennent accessibles plus facilement font qu'en dernière instance, ce sont bien les collaborateurs de l'entreprise qui sont le support de la compétence. L'objectif de cet état de la question n'est pas de procéder à un recensement exhaustif des manières de traiter de la compétence en sciences de gestion. Il est plutôt de mettre en évidence ce que les deux approches peuvent amener, chacun à leur manière, à notre problème, l'identification des compétences d'entreprise en lien avec la stratégie. Ces éléments nous serviront de matériau pour construire notre propre modèle d'identification des compétences. C'est sans doute la première fois que ces deux modèles sont confrontés du point de vue de la stratégie de l'entreprise. CHAPITRE 3 : LE MODÈLE CONCEPTUEL Le chapitre 3 présente le modèle conceptuel d'identification des compétences d'entreprise. Après une discussion sur la notion de modèle en sciences de gestion, il présente l'intérêt d'une modélisation, et la démarche de modélisation. Celle-ci se décompose en 3 étapes concentriques successives : un modèle informel, un modèle semi-formel qui prendra la forme d'une ontologie, et quelques éléments d'un modèle formel. Une présentation des ontologies et de l'utilité de cette technique précèdera la construction du modèle à proprement parler. Cette construction se fera à partir des fonctionnalités d'un système de gestion des compétences défini comme utile à l'entreprise, c'est à dire répondant aux objectifs. Dans cette partie, nous construirons notre modèle conceptuel d'identification et de qualification des compétences d'entreprises. Nous commencerons par préciser la notion de modèle. Un modèle consiste en une schématisation, -qui typifie certaines caractéristiques du réel, pour en faire ressortir certains traits dominants, les mettre en valeur et permettre ainsi d'anticiper certains développements de la réalité. Nous sélectionnerons et préciserons ensuite les entités nécessaires à la composition du modèle. Nous définirons ainsi le concept de compétences et les concepts qui lui sont liés. Dans une troisième partie, nous montrerons en quoi la technique des ontologies peut se révéler utile pour notre problématique. CHAPITRE 4 : LE MODÈLE DE RAISONNEMENT Le chapitre 4 présente le modèle de raisonnement, quelques fonctionnalités du prototype, quelques éléments de l'algorithme, une esquisse de l'architecture, des requêtes possibles, vues à travers une technique inspirée des use-cases. La partie précédente aura permis de sélectionner les entités nécessaires à un modèle d'identification et de qualification des compétences. Dans cette partie, nous allons développer le modèle de raisonnement. L'objectif de notre travail est d'identifier concrètement les compétences de l'entreprise, et de les qualifier, afin de servir d'aide à la décision. Dans cette optique, le modèle de raisonnement décrira les opérations effectuées sur les entités identifiées précédemment. Après avoir défini le modèle de raisonnement et son fonctionnement, nous présenterons les quatre cas d'utilisation qui nous servirons d'exemples d'utilisation. Il s'agit des cas de dirigeant d'entreprise, responsable des ressources humaines, chef de projet, et collaborateur de l'entreprise. Ces cas d'utilisation nous permettrons d'opérationnaliser les concepts décrits dans le modèle conceptuel à travers un système d'indicateurs, d'effectuer des opérations sur ces concepts. ANNEXE : UNE ÉTUDE DE CAS Enfin, en annexe de ce document, nous décrirons une étude de cas. Il s'agit d'une intervention menée en entreprise, qui a repris, et ainsi testé, une bonne partie des éléments décrits dans ce travail. Cette intervention a débouché sur la mise en place d'une gestion des compétences qui se concrétise notamment par un «tableau de bord des compétences ». CHAPITRE 5 : CONCLUSIONS ET PERSPECTIVES Le chapitre 5 présente les conclusions, et quelques perspectives. Il présente les principaux apports, les limites, un retour sur certaines questions méthodologiques. PRINCIPALES CONTRIBUTIONS L'objectif de cette thèse est de proposer un modèle qui permette d'identifier et de qualifier les compétences d'entreprise. On peut dégager un certain nombre de contributions 1. Nous proposons un modèle d'identification et de qualification des compétences en cohérence avec les préoccupations des entreprises, notamment par le lien avec la stratégie, qui permet l'adaptabilité et la flexibilité. 2. Nous proposons une méthode de qualification des compétences qui permet de distinguer les compétences d'entreprise selon différents points de vue 3. Nous proposons des fonctionnalités et une architecture rendant possible la réalisation d'un outil de gestion des compétences.
Resumo:
Bien que le manuel du WISC-IV fasse référence à la théorie de Cattell-Horn-Carroll (CHC), les indices calculés à partir de cette batterie (ICV, IRP, IMT et IVT) n'ont pas été définis sur la base du modèle CHC. Afin d'apporter un éclairage complémentaire sur les performances observées, nous recommandons néanmoins d'examiner les scores des subtests du WISC-IV en référence à la nomenclature des aptitudes cognitives proposées dans le modèle CHC. La première partie de cet article présente les normes francophones pour cinq facteurs CHC du WISC-IV, à savoir le raisonnement fluide (Gf), compréhension-connaissances (Gc), le traitement visuel (Gv), la mémoire à court terme (Gsm) et la vitesse de traitement (Gs), établies en utilisant une procédure d'approximation statistique. La seconde partie présente l'examen de la validité de ces normes, confrontées à des données recueillies sur un échantillon de 250 enfants. Nos résultats montrent que les corrélations entre les indices classiques du WISC-IV (ICV, IRP, IMT et IVT) et les scores composites CHC sont élevées, attestant de la validité des scores CHC. Ces normes permettent de calculer et d'utiliser les scores composites CHC en complément des indices standard, dans le cadre d'analyses normatives et ipsatives.
Resumo:
Des techniques de visualisation sont exploitées dans les enquêtes judiciaires afin de faciliter le traitement d'affaires d'envergure. Les éléments pertinents de l'enquête sont représentés par des schémas décrivant les relations entre les évènements et les entités d'intérêt. Les exploitations classiques de ces techniques qui s'apparentent à la construction de graphes sont par exemple : la représentation de réseaux criminels, de trafics de marchandises, de chronologies d'évènements, ainsi que la visualisation de relations téléphoniques et financières. Dans ce contexte, la visualisation soutient un nombre important d'objectifs, tels qu'analyser les traces et les informations collectées, évaluer à posteriori une investigation, aider à qualifier les infractions, faciliter l'appréhension d'un dossier et la prise de décisions au cours d'une enquête, voire soutenir une argumentation lors du procès. La pratique intègre des outils logiciels simples qui produisent des graphiques élégants et souvent percutants. Cette recherche tend à montrer qu'il existe des disparités étonnantes lors de l'exploitation de ces techniques. Des biais de raisonnement et de perception peuvent être induits, allant jusqu'à provoquer des décisions aux conséquences parfois désastreuses. Pour mettre en évidence ces difficultés, des évaluations ont été effectuées avec des praticiens et des étudiants. Elles ont permis d'établir une image empirique de l'étendue des variations de conception et d'interprétation des représentations, ainsi que de leurs impacts sur la prise de décision. La nature et la diversité des concepts à représenter, l'absence de consensus sur la manière de représenter les données, la diversité des solutions visuelles envisageables, les contraintes imposées par les outils exploités et l'absence d'une formalisation claire du langage, sont autant de causes supposées des difficultés. Ce constat révèle la nécessiter de consolider les méthodes pratiquées.
Resumo:
Basé sur les psychothérapies cognitives des psychoses, Michael's Game est un jeu de cartes qui propose à des patients de s'entraîner au raisonnement par hypothèses. Après une présentation théorique du jeu (cadre, déroulement, bénéfices attendus pour les patients...) les auteurs illustrent avec des réactions d'un groupe de patients.