40 resultados para raisonnement covariationnel
Resumo:
Nous décrivons dans cet article la pratique de l'expertise psychiatrique pénale telle qu'elle est effectuée au centre d'expertises de l'Institut de psychiatrie légale du département de psychiatrie du CHUV à Lausanne. Y est notamment abordée la question de la place réservée à l'utilisation d'instruments d'évaluation du risque de récidive. Qu'ils soient actuariels ou à type de raisonnement clinique structuré, ces instruments nous paraissent pouvoir trouver à s'inscrire dans une démarche méthodologique rigoureuse, dans la mesure où celle-ci se déploie dans une perspective qui reste fondée sur la clinique.
Resumo:
Le plan Nous nous proposons de distinguer dans l'oeuvre d'Ovsjaniko-Kulikovskij quatre étapes selon les sujets qu'il aborde dont les trois premières nous concernent directement: 1) les oeuvres de jeunesse portant sur le sanskrit et sur l'histoire de la pensée (1882-1892), 2) le noeud de sa conception (1893-1896), 3) les études spécialisées et les conclusions (1897-1902) et 4) ouvrages sur la théorie de la littérature et de l'art (à partir de 1903 environ, cette division étant approximative). Notre recherche ne suivra pas un plan strictement chronologique. Nous comptons évoquer les oeuvres en suivant leur apparition sans pour autant faire l'analyse détaillée de chacune d'elles. Au contraire, notre méthode d'analyse consistera à 1) dégager les idées maîtresses d'Ovsjaniko-Kulikovskij et leurs interrelations et 2) suivre leur évolution en les rapportant aux théories voisines en linguistique et dans d'autres sciences. Dans la partie I, intitulée «Une indo-européanistique évolutionniste», nous concentrerons notre attention tout d'abord sur les spécificités du parcours intellectuel d'Ovsjaniko-Kulikovskij par rapport à ses contemporains. Nous suivrons l'influence sur lui de cet «air du temps » de la fin du XIX' siècle qui rendait ses recherches indo-européennes évolutionnistes, à partir du réseau des présupposés de cette théorie. Nous verrons comment naît son insatisfaction devant les conceptions existantes du langage et comment se formulent les tâches et la problématique de la nouvelle conception qu'il veut élaborer. Dans la partie II, intitulée «Vers une linguistique énergétique», nous analyserons la constitution des piliers de sa conception, de ses idées originales qui la distinguent de ses contemporains. Nous nous intéresserons à la question du «nouveau» dans la science en nous référant aux conditions de production d'une conception nouvelle, à l'«air du temps» et à l'«air du lieu»: le raisonnement énergétique dans les sciences. Nous procéderons à une comparaison constante avec les conceptions de ses prédécesseurs (en particulier de ceux qu'il cite lui-même en tant que tels) et de ses contemporains. Dans la partie III, intitulée «Une syntaxe énergétique», nous nous intéresserons à ce que la conception d'Ovsjaniko-Kulikovskij a apporté de nouveau aux questions du «temps». A-t-il pu construire une «linguistique scientifique»? Comment le raisonnement énergétique sert-il à la fois de moteur et de frein à sa conception, lui ouvre-t-il de nouveaux horizons et lui dicte-t-il des limites? Dans la conclusion, enfin, nous dresserons le bilan de l'étude en démontrant quel intérêt il y a, pour l'histoire de la linguistique, à situer un auteur dans un tel croisement d'associations spatio-temporelles.
Resumo:
La quatrième version de l'échelle d'intelligence de Wechsler pour enfants (WISC-IV) permet le calcul du QI Total et de quatre indices factoriels : compréhension verbale, raisonnement perceptif, vitesse de traitement et mémoire de travail. En 1998, Prifitera et al, ont préconisé le calcul de l'indice d'aptitude général (IAG) comme alternative au quotient intellectuel total (QIT), et cela à partir des scores de compréhension verbale et de raisonnement perceptif. La première étude présentée dans cet article a pour objectif d'établir les normes francophones pour le score IAG du WISC-IV, en utilisant une procédure d'approximation statistique. La deuxième étude vise à examiner la validité de ces normes, en les confrontant à des données recueillies sur un échantillon de 60 enfants. La corrélation entre QIT et IAG est de 0,91 et la différence relative moyenne de 0,18 point. Ces normes permettent d'utiliser le score IAG comme alternative au QIT dans certaines situations diagnostiques.
Resumo:
La fécondation in vitro (FIV) n'est pas remboursée. Le Tribunal fédéral le répète inlassablement depuis bientôt 30 ans. Néanmoins, les assurées ne baissent pas les bras et périodiquement resoumettent la question, espérant que de nouvelles données scientifiques sauront infléchir la Haute Cour. En vain. Le tribunal l'a redit en octobre 2012:1 cette prestation n'est pas à charge des caisses.2 L'ordonnance sur les prestations de l'assurance-maladie (OPAS3) le prévoit explicitement, et il n'y a simplement pas lieu d'examiner une disposition d'une ordonnance du Département fédéral de l'intérieur (DFI). Le raisonnement est toutefois un peu court. Premièrement, le refus du Tribunal fédéral d'examiner si l'ordonnance respecte le cadre de la délégation législative ne convainc pas. Deuxièmement, la FIV remplit les critères imposés à la prise en charge tels que décidés par le législateur dans la loi sur l'assurance-maladie (LAMal4). Enfin, les assurés qui décident de recourir contre un refus de remboursement sont privés des garanties minimales de procédure que leur garantit pourtant la Convention européenne des droits de l'homme. La présente contribution commence par une brève description de la FIV. Elle expose ensuite la législation applicable (partie 2) et la jurisprudence fédérale qui en découle (partie 3). La partie suivante critique la position du Tribunal fédéral au regard des principes énoncés dans la législation. Une comparaison avec l'insémination intra-utérine (IIU), pour laquelle le Tribunal fédéral a admis le remboursement, met en lumière les incohérences de la jurisprudence. La compatibilité de la jurisprudence fédérale avec l'art. 6 de la Convention européenne sur les droits de l'homme est évaluée. La conclusion plaide pour une réforme partielle du système procédural gouvernant la prise en charge des prestations de soins, mais aussi des techniques médicales alternatives.
Resumo:
In Switzerland, the annual cost of damage by natural elements has been increasing for several years despite the introduction of protective measures. Mainly induced by material destruction building insurance companies have to pay the majority of this cost. In many European countries, governments and insurance companies consider prevention strategies to reduce vulnerability. In Switzerland, since 2004, the cost of damage due to natural hazards has surpassed the cost of damage due to fire; a traditional activity of the Cantonal Insurance company (EGA). Therefore, the strategy for efficient fire prevention incorporates a reduction of the vulnerability of buildings. The thesis seeks to illustrate the relevance of such an approach when applied to the damage caused by natural hazards. It examines the role of insurance place and its involvement in targeted prevention of natural disasters. Integrated risk management involves a faultless comprehension of all risk parameters The first part of the thesis is devoted to the theoretical development of the key concepts that influence risk management, such as: hazard, vulnerability, exposure or damage. The literature on this subject, very prolific in recent years, was taken into account and put in perspective in the context of this study. Among the risk parameters, it is shown in the thesis that vulnerability is a factor that we can influence efficiently in order to limit the cost of damage to buildings. This is confirmed through the development of an analysis method. This method has led to the development of a tool to assess damage to buildings by flooding. The tool, designed for the property insurer or owner, proposes several steps, namely: - Vulnerability and damage potential assessment; - Proposals for remedial measures and risk reduction from an analysis of the costs of a potential flood; - Adaptation of a global strategy in high-risk areas based on the elements at risk. The final part of the thesis is devoted to the study of a hail event in order to provide a better understanding of damage to buildings. For this, two samples from the available claims data were selected and analysed in the study. The results allow the identification of new trends A second objective of the study was to develop a hail model based on the available data The model simulates a random distribution of intensities and coupled with a risk model, proposes a simulation of damage costs for the determined study area. Le coût annuel des dommages provoqués par les éléments naturels en Suisse est conséquent et sa tendance est en augmentation depuis plusieurs années, malgré la mise en place d'ouvrages de protection et la mise en oeuvre de moyens importants. Majoritairement induit par des dégâts matériels, le coût est supporté en partie par les assurances immobilières en ce qui concerne les dommages aux bâtiments. Dans de nombreux pays européens, les gouvernements et les compagnies d'assurance se sont mis à concevoir leur stratégie de prévention en termes de réduction de la vulnérabilité. Depuis 2004, en Suisse, ce coût a dépassé celui des dommages dus à l'incendie, activité traditionnelle des établissements cantonaux d'assurance (ECA). Ce fait, aux implications stratégiques nombreuses dans le domaine public de la gestion des risques, résulte en particulier d'une politique de prévention des incendies menée efficacement depuis plusieurs années, notamment par le biais de la diminution de la vulnérabilité des bâtiments. La thèse, par la mise en valeur de données actuarielles ainsi que par le développement d'outils d'analyse, cherche à illustrer la pertinence d'une telle approche appliquée aux dommages induits par les phénomènes naturels. Elle s'interroge sur la place de l'assurance et son implication dans une prévention ciblée des catastrophes naturelles. La gestion intégrale des risques passe par une juste maîtrise de ses paramètres et de leur compréhension. La première partie de la thèse est ainsi consacrée au développement théorique des concepts clés ayant une influence sur la gestion des risques, comme l'aléa, la vulnérabilité, l'exposition ou le dommage. La littérature à ce sujet, très prolifique ces dernières années, a été repnse et mise en perspective dans le contexte de l'étude, à savoir l'assurance immobilière. Parmi les paramètres du risque, il est démontré dans la thèse que la vulnérabilité est un facteur sur lequel il est possible d'influer de manière efficace dans le but de limiter les coûts des dommages aux bâtiments. Ce raisonnement est confirmé dans un premier temps dans le cadre de l'élaboration d'une méthode d'analyse ayant débouché sur le développement d'un outil d'estimation des dommages aux bâtiments dus aux inondations. L'outil, destiné aux assurances immobilières, et le cas échéant aux propriétaires, offre plusieurs étapes, à savoir : - l'analyse de la vulnérabilité et le potentiel de dommages ; - des propositions de mesures de remédiation et de réduction du risque issues d'une analyse des coûts engendrés par une inondation potentielle; - l'adaptation d'une stratégie globale dans les zones à risque en fonction des éléments à risque. La dernière partie de la thèse est consacrée à l'étude d'un événement de grêle dans le but de fournir une meilleure compréhension des dommages aux bâtiments et de leur structure. Pour cela, deux échantillons ont été sélectionnés et analysés parmi les données de sinistres à disposition de l'étude. Les résultats obtenus, tant au niveau du portefeuille assuré que de l'analyse individuelle, permettent de dégager des tendances nouvelles. Un deuxième objectif de l'étude a consisté à élaborer une modélisation d'événements de grêle basée sur les données à disposition. Le modèle permet de simuler une distribution aléatoire des intensités et, couplé à un modèle d'estimation des risques, offre une simulation des coûts de dommages envisagés pour une zone d'étude déterminée. Les perspectives de ce travail permettent une meilleure focalisation du rôle de l'assurance et de ses besoins en matière de prévention.
Resumo:
Les résultats des recherches contemporaines, montrant notamment l'importance du raisonnement fluide, de la mémoire de travail (IMT) et de la vitesse de traitement (IVT) dans le fonctionnement cognitif, ont conduit les concepteurs de la WAIS-IV à introduire de nouvelles épreuves pour renforcer l'évaluation de ces dimensions cognitives. L'interprétation des scores de la WAIS-IV repose maintenant sur quatre indices factoriels (ICV, IRP, IMT et IVT), ainsi que sur le QIT. Les concepteurs de la WAIS-IV indiquent que l'un des objectifs de la révision consistait à actualiser les fondements théoriques de cette échelle. Pourtant, la structure globale de la WAIS-IV ne correspond que partiellement à celle proposée dans le modèle qui fait consensus aujourd'hui, le modèle de Cattell-Horn-Carroll (CHC). Par exemple, la WAIS-IV ne propose pas d'indice de raisonnement fluide, bien que les constructeurs soulignent l'importance de cette dimension dans le fonctionnement cognitif. Dans cet article, nous proposons, pour la WAIS-IV, les normes francophones de cinq scores composites CHC, à savoir le raisonnement fluide (Gf), compréhension-connaissances (Gc), le traitement visuel (Gv), la mémoire à court terme (Gsm), et l'IVT (Gs). Ces normes ont été établies en utilisant une procédure d'approximation statistique. À l'instar des scores CHC que nous avons proposés pour le WISCIV, ces normes pour la WAIS-IV permettent aux cliniciens de basculer vers une grille d'interprétation basée sur le modèle dominant et d'utiliser les cinq scores composites CHC en complément des quatre indices standard dans le cadre d'analyses normatives et ipsatives.
Resumo:
Objectifs : Présenter des cas cliniques d'imagerie d'urgences en imagerie abdominale. Détailler le raisonnement qui conduit à la liste des hypothèses et comment le diagnostic final peut être retenu. Définir en quoi ces dossiers sont intéressants, soit du fait de leur présentation caractéristique, soit en raison de leur caractère inhabituel mais pas exceptionnel, soit parce qu'ils ont conduit à des erreurs d'interprétation lorsqu'ils se sont présentés.
Resumo:
Bien que la lutte contre le dopage poursuive de nombreux objectifs à fin de détection, réduction, neutralisation et/ou prévention du dopage, l'approche actuelle se focalise essentiellement sur le processus judiciaire. A l'instar de la prise de décision dans le domaine de l'application de la loi, l'antidopage pourrait voir la portée et l'efficacité de son activité s'améliorer sensiblement en s'appuyant sur le Renseignement Forensique. En effet, des bénéfices notables pourraient découler d'une récolte d'information à plus large spectre, suivie d'une structuration et d'un traitement des données approfondis. Le Renseignement Forensique pourrait apporter une dimension logique étendue à l'interprétation des données relatives aux activités de dopage afin de supporter une approche globale et proactive outrepassant les limitations de l'approche actuelle réactive et du cas par cas. L'information provenant d'une variété de sources telles que des études physiologiques, épidémiologiques et sociologiques alimenterait une mémoire organisée afin de fournir du renseignement en temps réel sur la taille, la gravité et l'évolution de tout phénomène relatif au dopage. Du fait de la complexité du dopage, intégrer ces éléments aux résultats de chimie analytique des athlètes et au suivi longitudinal des biomarqueurs de dopage serait d'une grande aide pour élaborer des stratégies adaptées à chaque situation, que le phénomène soit global ou un cas isolé. Le processus du renseignement se fonde avant tout sur un raisonnement logique. La polyvalence et la flexibilité en découlant seraient de précieux atouts pour détecter, neutraliser, mettre fin et/ou prévenir le dopage, individuel ou organisé, ou le trafic de produits dopants. Cette méthodologie permettrait également d'affiner le ciblage des athlètes ou équipes et de fournir des preuves de dopage en l'absence de résultats d'analyses anormaux. Ainsi, par le Renseignement Antidopage une réponse proactive pourrait être proposée à tout phénomène de dopage potentiel ou émergent, ou aux problèmes existants en présentant des actions et/ou politiques innovantes.
Resumo:
STRUCTURE DU DOCUMENT ET PRINCIPALES CONTRIBUTIONS CHAPITRE 1 INTRODUCTION ET MÉTHODOLOGIE Le chapitre 1 présente un aperçu de la recherche, le contexte, les objectifs, la méthodologie, la démarche. CHAPITRE 2 : ÉTAT DE LA QUESTION Le chapitre 2 présente un état de la question des principaux concepts : les compétences, la gestion des compétences, les systèmes de gestion des compétences. La question de la gestion des compétences en sciences de gestion, et son lien avec la stratégie de l'entreprise a beaucoup occupé les chercheurs et les praticiens. On peut distinguer deux tendances principales : les recherches provenant du champ disciplinaire de la stratégie d'entreprise, regroupées par commodité sous l'étiquette «approche stratégique », et les recherches issues du domaine de la gestion des ressources humaines, qu'on appellera GRH. Au-delà du vocabulaire souvent commun (ressources, compétences), de la vision partagée qu'il est nécessaire de voir l'entreprise « de l'intérieur » et non plus uniquement dans son environnement, les deux approches ont des problématiques très similaires, comme le lien avec la performance ou les changements organisationnels induits par une démarche compétence. Pourtant, les divergences subsistent. L'approche stratégique procède d'un niveau « macro »pour identifier des « compétences-clés », et peine souvent à opérationnaliser ce concept. Les démarches GRH ont un souci analytique de décomposition de la compétence et de la ressource qui risque de noyer la démarche dans le détail. En outre, alors que le vocabulaire est similaire, les définitions divergent. Concilier ces divergences, afin de conserver les avantages de l'une et de l'autre de ces théories, à savoir le lien avec la stratégie pour l'une et le souci d'opérationnaliser les concepts pour l'autre est peut être plus aisé à l'heure ou les nouvelles conditions auxquelles sont soumises les entreprises qui oeuvrent dans l' »économie de la connaissance ». Les technologies qui deviennent accessibles plus facilement font qu'en dernière instance, ce sont bien les collaborateurs de l'entreprise qui sont le support de la compétence. L'objectif de cet état de la question n'est pas de procéder à un recensement exhaustif des manières de traiter de la compétence en sciences de gestion. Il est plutôt de mettre en évidence ce que les deux approches peuvent amener, chacun à leur manière, à notre problème, l'identification des compétences d'entreprise en lien avec la stratégie. Ces éléments nous serviront de matériau pour construire notre propre modèle d'identification des compétences. C'est sans doute la première fois que ces deux modèles sont confrontés du point de vue de la stratégie de l'entreprise. CHAPITRE 3 : LE MODÈLE CONCEPTUEL Le chapitre 3 présente le modèle conceptuel d'identification des compétences d'entreprise. Après une discussion sur la notion de modèle en sciences de gestion, il présente l'intérêt d'une modélisation, et la démarche de modélisation. Celle-ci se décompose en 3 étapes concentriques successives : un modèle informel, un modèle semi-formel qui prendra la forme d'une ontologie, et quelques éléments d'un modèle formel. Une présentation des ontologies et de l'utilité de cette technique précèdera la construction du modèle à proprement parler. Cette construction se fera à partir des fonctionnalités d'un système de gestion des compétences défini comme utile à l'entreprise, c'est à dire répondant aux objectifs. Dans cette partie, nous construirons notre modèle conceptuel d'identification et de qualification des compétences d'entreprises. Nous commencerons par préciser la notion de modèle. Un modèle consiste en une schématisation, -qui typifie certaines caractéristiques du réel, pour en faire ressortir certains traits dominants, les mettre en valeur et permettre ainsi d'anticiper certains développements de la réalité. Nous sélectionnerons et préciserons ensuite les entités nécessaires à la composition du modèle. Nous définirons ainsi le concept de compétences et les concepts qui lui sont liés. Dans une troisième partie, nous montrerons en quoi la technique des ontologies peut se révéler utile pour notre problématique. CHAPITRE 4 : LE MODÈLE DE RAISONNEMENT Le chapitre 4 présente le modèle de raisonnement, quelques fonctionnalités du prototype, quelques éléments de l'algorithme, une esquisse de l'architecture, des requêtes possibles, vues à travers une technique inspirée des use-cases. La partie précédente aura permis de sélectionner les entités nécessaires à un modèle d'identification et de qualification des compétences. Dans cette partie, nous allons développer le modèle de raisonnement. L'objectif de notre travail est d'identifier concrètement les compétences de l'entreprise, et de les qualifier, afin de servir d'aide à la décision. Dans cette optique, le modèle de raisonnement décrira les opérations effectuées sur les entités identifiées précédemment. Après avoir défini le modèle de raisonnement et son fonctionnement, nous présenterons les quatre cas d'utilisation qui nous servirons d'exemples d'utilisation. Il s'agit des cas de dirigeant d'entreprise, responsable des ressources humaines, chef de projet, et collaborateur de l'entreprise. Ces cas d'utilisation nous permettrons d'opérationnaliser les concepts décrits dans le modèle conceptuel à travers un système d'indicateurs, d'effectuer des opérations sur ces concepts. ANNEXE : UNE ÉTUDE DE CAS Enfin, en annexe de ce document, nous décrirons une étude de cas. Il s'agit d'une intervention menée en entreprise, qui a repris, et ainsi testé, une bonne partie des éléments décrits dans ce travail. Cette intervention a débouché sur la mise en place d'une gestion des compétences qui se concrétise notamment par un «tableau de bord des compétences ». CHAPITRE 5 : CONCLUSIONS ET PERSPECTIVES Le chapitre 5 présente les conclusions, et quelques perspectives. Il présente les principaux apports, les limites, un retour sur certaines questions méthodologiques. PRINCIPALES CONTRIBUTIONS L'objectif de cette thèse est de proposer un modèle qui permette d'identifier et de qualifier les compétences d'entreprise. On peut dégager un certain nombre de contributions 1. Nous proposons un modèle d'identification et de qualification des compétences en cohérence avec les préoccupations des entreprises, notamment par le lien avec la stratégie, qui permet l'adaptabilité et la flexibilité. 2. Nous proposons une méthode de qualification des compétences qui permet de distinguer les compétences d'entreprise selon différents points de vue 3. Nous proposons des fonctionnalités et une architecture rendant possible la réalisation d'un outil de gestion des compétences.
Resumo:
Bien que le manuel du WISC-IV fasse référence à la théorie de Cattell-Horn-Carroll (CHC), les indices calculés à partir de cette batterie (ICV, IRP, IMT et IVT) n'ont pas été définis sur la base du modèle CHC. Afin d'apporter un éclairage complémentaire sur les performances observées, nous recommandons néanmoins d'examiner les scores des subtests du WISC-IV en référence à la nomenclature des aptitudes cognitives proposées dans le modèle CHC. La première partie de cet article présente les normes francophones pour cinq facteurs CHC du WISC-IV, à savoir le raisonnement fluide (Gf), compréhension-connaissances (Gc), le traitement visuel (Gv), la mémoire à court terme (Gsm) et la vitesse de traitement (Gs), établies en utilisant une procédure d'approximation statistique. La seconde partie présente l'examen de la validité de ces normes, confrontées à des données recueillies sur un échantillon de 250 enfants. Nos résultats montrent que les corrélations entre les indices classiques du WISC-IV (ICV, IRP, IMT et IVT) et les scores composites CHC sont élevées, attestant de la validité des scores CHC. Ces normes permettent de calculer et d'utiliser les scores composites CHC en complément des indices standard, dans le cadre d'analyses normatives et ipsatives.
Resumo:
Des techniques de visualisation sont exploitées dans les enquêtes judiciaires afin de faciliter le traitement d'affaires d'envergure. Les éléments pertinents de l'enquête sont représentés par des schémas décrivant les relations entre les évènements et les entités d'intérêt. Les exploitations classiques de ces techniques qui s'apparentent à la construction de graphes sont par exemple : la représentation de réseaux criminels, de trafics de marchandises, de chronologies d'évènements, ainsi que la visualisation de relations téléphoniques et financières. Dans ce contexte, la visualisation soutient un nombre important d'objectifs, tels qu'analyser les traces et les informations collectées, évaluer à posteriori une investigation, aider à qualifier les infractions, faciliter l'appréhension d'un dossier et la prise de décisions au cours d'une enquête, voire soutenir une argumentation lors du procès. La pratique intègre des outils logiciels simples qui produisent des graphiques élégants et souvent percutants. Cette recherche tend à montrer qu'il existe des disparités étonnantes lors de l'exploitation de ces techniques. Des biais de raisonnement et de perception peuvent être induits, allant jusqu'à provoquer des décisions aux conséquences parfois désastreuses. Pour mettre en évidence ces difficultés, des évaluations ont été effectuées avec des praticiens et des étudiants. Elles ont permis d'établir une image empirique de l'étendue des variations de conception et d'interprétation des représentations, ainsi que de leurs impacts sur la prise de décision. La nature et la diversité des concepts à représenter, l'absence de consensus sur la manière de représenter les données, la diversité des solutions visuelles envisageables, les contraintes imposées par les outils exploités et l'absence d'une formalisation claire du langage, sont autant de causes supposées des difficultés. Ce constat révèle la nécessiter de consolider les méthodes pratiquées.
Resumo:
Basé sur les psychothérapies cognitives des psychoses, Michael's Game est un jeu de cartes qui propose à des patients de s'entraîner au raisonnement par hypothèses. Après une présentation théorique du jeu (cadre, déroulement, bénéfices attendus pour les patients...) les auteurs illustrent avec des réactions d'un groupe de patients.
Resumo:
Pour faire évoluer la science forensique, il faut pouvoir analyser des notions élémentaires appartenant au quotidien et non se focaliser exclusivement sur le développement de nouvelles techniques. Encore non étudiée sous cette perspective, la pertinence fait partie de ces notions fondamentales forensiques pour lesquelles une telle analyse mérite d'être menée. En tenant compte du constat formulé par Inman et Rudin (2000), à savoir que la tâche la plus compliquée est de pouvoir reconnaître des traces matérielles pertinentes, s'interroger sur la pertinence de la trace soulève bien plus qu'une question. Cela met en évidence une multitude de paramètres intervenant dans les processus de raisonnement et de décision opérés sur les lieux d'investigations. Du reste trois facteurs susceptibles d'avoir une influence notable sur la recherche de traces apparaissent : Savoir, Formation et Expérience ou S.F.E. Ils forment, en étant regroupés, un bagage spécifique au spécialiste, composant sa connaissance dans le domaine et à même de jouer un rôle d'importance dans son travail opéré sur les lieux. Afin de déterminer l'influence de ce bagage sur le concept de pertinence, la démarche expérimentale se conduit en deux temps. Dans une première phase, l'approche se veut exploratoire au travers d'un stage réalisé dans une unité d'interventions, permettant de poser des bases statistiques et de dresser une réalité du travail sur le terrain. Puis au cours de la phase expérimentale, la conduite d'entretiens semi-directifs, couplés à un sondage, vise à déterminer quelle perception du concept de pertinence ressort parmi les volontaires interrogés. Ces derniers sont issus de groupes composés de futurs criminalistes, qui suivent une formation forensique à l'Université de Lausanne, et de praticiens expérimentés de formation police et / ou scientifique. En tentant de clarifier le concept de pertinence, l'objectif est de fournir des outils pour renforcer ou orienter la formation de spécialistes sur le terrain, en ayant permis d'amorcer une démarche de réflexion logique face aux champs d'investigations. En se voulant utile pour mieux formaliser la détection et la collecte des traces pertinentes sur les lieux, cela constitue une aide à la gestion : un atout non négligeable à l'heure où les contrôles qualité et les standards ne sont plus seulement une tendance mais une réalité qui s'impose.
Resumo:
Par le biais d'une procédure Test-Retest, la stabilité à long terme des indices standard du WISC-IV français a été évaluée. L'intervalle moyen entre les deux passations est de 2,33 ans. L'échantillon comprend 96 enfants « tout venant » âgés de huit à 12 ans. Les comparaisons entre les moyennes des deux passations ne montrent pas de différence significative pour indice de compréhension verbale (ICV), indice de raisonnement perceptif (IRP), indice de mémoire de travail (IMT), indice d'aptitude générale (IAG) et QIT. Au niveau interindividuel, les coefficients de corrélations témoignent d'une bonne stabilité à long terme pour ICV, IAG et QIT (allant de 0,81 à 0,82). Une analyse des différences de performances entre les deux passations indique une stabilité intra-individuelle satisfaisante pour IMT et IAG. Seul IAG présente donc une stabilité à long terme satisfaisante au niveau inter- et intra-individuel. By a Test-Retest procedure, this study explores the long-term stability of the French WISC-IV index scores. The average Test-Retest interval was 2.33 years. The sample consisted of 96 non-clinical children aged between 8 and 12 years. Mean difference between the two testings was not statistically significant for VCI, PRI, WMI, GAI and FSIQ. Test-Retest reliability correlations between the two assessments are high for VCI, GAI and FSIQ (ranging from .81 to .82). An analysis of the performance differences between two assessments indicates intra-individual stability for WMI and GAI. In sum, only GAI demonstrates reliable long-term stability at an inter-and intra-individual level.
Resumo:
RÉSUMÉ : L'article a pour but d'expliquer la théorie linguistique de D. N. Ovsjaniko Kulikovskij (Russie, 1853-1920) et de proposer une nouvelle vision de la conception de ce linguiste souvent présenté comme un simple élève de A. A. Potebnja (1835-1891). L'article veut montrer comment Ovsjaniko Kulikovskij réalise son projet de créer une « linguistique scientifique » par opposition à la « philologie ». Il permet de suivre la manière dont s'est développé l'emprunt à la physique des notions d'« économie d'énergie » et de celle du « moindre effort » pour la psychologie et ensuite, la linguistique, notions qui étaient promises à un grand avenir dans la linguistique du XXe siècle.