966 resultados para [JEL:C52] Mathématiques et méthodes quantitatives - Modélisation économétrique - Évaluation de modèles et tests
Resumo:
Dans les modèles d’évaluation d’actifs financiers, la stratégie de placement d’un individu est liée à la distribution des rendements des actifs inclus dans son portefeuille. Le modèle intertemporel d’évaluation des actifs financiers basé sur la consommation (C-CAPM) permet d’intégrer la dimension temporelle dans le cadre d’analyse et de comprendre l’arbitrage entre les décisions de consommation et d’épargne d’un individu. La prédiction fondamentale de ce modèle est l’existence d’un lien entre les rendements des actifs financiers et leur covariance avec le taux marginal de substitution intertemporel (TMSI). Dans un cadre théorique, l’énigme de la prime de risque est mise en évidence lorsqu’une fonction d’utilité de type CRRA est utilisée afin de représenter les préférences du consommateur. La rigidité de cette modélisation impose cependant un coefficient d’aversion au risque fixe réconciliant difficilement le modèle avec les données réelles. Ce mémoire a pour objectif de résoudre cette problématique en modifiant les formulations classiques du TMSI. Dans un contexte canadien, nous modifions la forme CRRA afin de déterminer, entre autres, si les variations du produit intérieur brut ont un effet sur le niveau d’aversion au risque d’un agent. Par la suite, nous insérons la richesse immobilière dans une forme d’utilité non-séparable comme proxy du rendement de la richesse. Nos résultats suggèrent qu’il est pertinent, sur une longue période, de tenir compte de la richesse immobilière dans le programme de consommation de l’agent.
Resumo:
L’objectif de cette maîtrise est de développer une matrice alimentaire sans gluten par l’incorporation des protéines de canola (PC) dans une farine de riz blanc afin d’offrir aux personnes intolérantes au gluten un produit de bonne qualité d’un point de vue organoleptique (volume massique, structure alvéolaire et couleur) et de valeur nutritionnelle. La matrice sélectionnée est du pain à base de farine de riz blanc. Cinq formulations ont été testées dans la première partie de ce travail : témoin-1 (blé tendre), témoin-2 (100% riz), pain de riz +3% PC, pain de riz + 6% PC, pain de riz + 9% PC. Les produits obtenus ont été caractérisés à toutes les étapes de fabrication en utilisant différentes techniques : poussée volumique, variation thermique au cours des étuvages et de la cuisson, pH (acidité), perte d’eau, volume massique, analyse colorimétrique, dosage des protéines et analyse du profil de la texture. Dans la deuxième partie, deux variables indépendantes ont été additionnées; soit shortening (1, 2, 3%) et gomme de xanthane (0.5, 1, 1.5%), dans le but d’améliorer le volume massique de la meilleure formulation obtenue dans l’étape précédente. Ensuite, des essais de correction ont été attribués aux produits obtenus par l’introduction du bicarbonate de sodium (0.5, 1, 1.5%) et d’huile de canola à la place du shortening (1, 2, 3%). Les tests de panification ont donné différents volumes massiques et structures alvéolaires qui étaient jugés de qualité inférieure à celle du témoin-1 (2.518 mL/g), mais largement supérieure à celle du témoin-2 (1.417 mL/g). Le meilleur volume massique obtenu est de 1.777 mL/g, correspondant à celui du pain obtenu par la combinaison 6%PC+0.5%GH+B 1.5%+ H3%. Finalement, les résultats de ce projet ont montré l’impact positif de l’incorporation des protéines de canola dans un pain sans gluten à base de farine de riz blanc. Ce travail constitue une contribution à la possibilité de substituer le gluten par d’autres protéines ayant de bonnes propriétés techno-fonctionnelles, en particulier la capacité à donner du volume au produit final.
Resumo:
Le laboratoire DOMUS développe des applications sensibles au contexte dans une perspective d’intelligence ambiante. L’architecture utilisée présentement pour gérer le contexte a atteint ses limites en termes de capacité d’évoluer, d’intégration de nouvelles sources de données et de nouveaux capteurs et actionneurs, de capacité de partage entre les applications et de capacité de raisonnement. Ce projet de recherche a pour objectif de développer un nouveau modèle, un gestionnaire de contexte et de proposer une architecture pour les applications d’assistance installées dans un habitat intelligent. Le modèle doit répondre aux exigences suivantes : commun, abstrait, évolutif, décentralisé, performant et une accessibilité uniforme. Le gestionnaire du contexte doit permettre de gérer les événements et offrir des capacités de raisonnement sur les données et le contexte. La nouvelle architecture doit simplifier le développement d’applications d’assistance et la gestion du contexte. Les applications doivent pouvoir se mettre à jour si le modèle de données évolue dans le temps sans nécessiter de modification dans le code source. Le nouveau modèle de données repose sur une ontologie définie avec le langage OWL 2 DL. L’architecture pour les applications d’assistance utilise le cadre d’applications Apache Jena pour la gestion des requêtes SPARQL et un dépôt RDF pour le stockage des données. Une bibliothèque Java a été développée pour gérer la correspondance entre le modèle de données et le modèle Java. Le serveur d’événements est basé sur le projet OpenIoT et utilise un dépôt RDF. Il fournit une API pour la gestion des capteurs / événements et des actionneurs / actions. Les choix d’implémentation et l’utilisation d’une ontologie comme modèle de données et des technologies du Web sémantique (OWL, SPARQL et dépôt RDF) pour les applications d’assistance dans un habitat intelligent ont été validés par des tests intensifs et l’adaptation d’applications déjà existantes au laboratoire. L’utilisation d’une ontologie a pour avantage une intégration des déductions et du raisonnement directement dans le modèle de données et non au niveau du code des applications.
Resumo:
Résumé : En imagerie médicale, il est courant d’associer plusieurs modalités afin de tirer profit des renseignements complémentaires qu’elles fournissent. Par exemple, la tomographie d’émission par positrons (TEP) peut être combinée à l’imagerie par résonance magnétique (IRM) pour obtenir à la fois des renseignements sur les processus biologiques et sur l’anatomie du sujet. Le but de ce projet est d’explorer les synergies entre l’IRM et la TEP dans le cadre d’analyses pharmacocinétiques. Plus spécifiquement, d’exploiter la haute résolution spatiale et les renseignements sur la perfusion et la perméabilité vasculaire fournis par l’IRM dynamique avec agent de contraste afin de mieux évaluer ces mêmes paramètres pour un radiotraceur TEP injecté peu de temps après. L’évaluation précise des paramètres de perfusion du radiotraceur devrait permettre de mieux quantifier le métabolisme et de distinguer l’accumulation spécifique et non spécifique. Les travaux ont porté sur deux radiotraceurs de TEP (18F-fluorodésoxyglucose [FDG] et 18F-fluoroéthyle-tyrosine [FET]) ainsi que sur un agent de contraste d’IRM (acide gadopentétique [Gd DTPA]) dans un modèle de glioblastome chez le rat. Les images ont été acquises séquentiellement, en IRM, puis en TEP, et des prélèvements sanguins ont été effectués afin d’obtenir une fonction d’entrée artérielle (AIF) pour chaque molécule. Par la suite, les images obtenues avec chaque modalité ont été recalées et l’analyse pharmacocinétique a été effectuée par régions d’intérêt (ROI) et par voxel. Pour le FDG, un modèle irréversible à 3 compartiments (2 tissus) a été utilisé conformément à la littérature. Pour la FET, il a été déterminé qu’un modèle irréversible à 2 tissus pouvait être appliqué au cerveau et à la tumeur, alors qu’un modèle réversible à 2 tissus convenait aux muscles. La possibilité d’effectuer une conversion d’AIF (sanguine ou dérivée de l’image) entre le Gd DTPA et la FET, ou vice versa, a aussi été étudiée et s’est avérée faisable dans le cas des AIF sanguines obtenues à partir de l’artère caudale, comme c’est le cas pour le FDG. Finalement, l’analyse pharmacocinétique combinée IRM et TEP a relevé un lien entre la perfusion du Gd-DTPA et du FDG, ou de la FET, pour les muscles, mais elle a démontré des disparités importantes dans la tumeur. Ces résultats soulignent la complexité du microenvironnement tumoral (p. ex. coexistence de divers modes de transport pour une même molécule) et les nombreux défis rencontrées lors de sa caractérisation chez le petit animal.
Resumo:
L’échocardiographie et l’imagerie par résonance magnétique sont toutes deux des techniques non invasives utilisées en clinique afin de diagnostiquer ou faire le suivi de maladies cardiaques. La première mesure un délai entre l’émission et la réception d’ultrasons traversant le corps, tandis que l’autre mesure un signal électromagnétique généré par des protons d’hydrogène présents dans le corps humain. Les résultats des acquisitions de ces deux modalités d’imagerie sont fondamentalement différents, mais contiennent dans les deux cas de l’information sur les structures du coeur humain. La segmentation du ventricule gauche consiste à délimiter les parois internes du muscle cardiaque, le myocarde, afin d’en calculer différentes métriques cliniques utiles au diagnostic et au suivi de différentes maladies cardiaques, telle la quantité de sang qui circule à chaque battement de coeur. Suite à un infarctus ou autre condition, les performances ainsi que la forme du coeur en sont affectées. L’imagerie du ventricule gauche est utilisée afin d’aider les cardiologues à poser les bons diagnostics. Cependant, dessiner les tracés manuels du ventricule gauche requiert un temps non négligeable aux cardiologues experts, d’où l’intérêt pour une méthode de segmentation automatisée fiable et rapide. Ce mémoire porte sur la segmentation du ventricule gauche. La plupart des méthodes existantes sont spécifiques à une seule modalité d’imagerie. Celle proposée dans ce document permet de traiter rapidement des acquisitions provenant de deux modalités avec une précision de segmentation équivalente au tracé manuel d’un expert. Pour y parvenir, elle opère dans un espace anatomique, induisant ainsi une forme a priori implicite. L’algorithme de Graph Cut, combiné avec des stratégies telles les cartes probabilistes et les enveloppes convexes régionales, parvient à générer des résultats qui équivalent (ou qui, pour la majorité des cas, surpassent) l’état de l’art ii Sommaire au moment de la rédaction de ce mémoire. La performance de la méthode proposée, quant à l’état de l’art, a été démontrée lors d’un concours international. Elle est également validée exhaustivement via trois bases de données complètes en se comparant aux tracés manuels de deux experts et des tracés automatisés du logiciel Syngovia. Cette recherche est un projet collaboratif avec l’Université de Bourgogne, en France.
Resumo:
209 p. : graf.
Resumo:
Cette étude qualitative a pour objectif de comprendre comment les interventions verbales des apprenantes et apprenants contribuent à la résolution effective des tâches linguistiques orales dans une classe d'anglais langue seconde selon la théorie Vygotskienne. La recherche a montré que les apprenantes et apprenants passent un temps considérable à discuter les énoncés ainsi que de la meilleure façon de résoudre les tâches linguistiques orales. Or, la recension des écrits a révélé que peu d'études ont tenté de comprendre ce que font les apprenantes et apprenants quand ils sont appelés à résoudre des tâches orales. Dans notre étude nous avons donc essayé de jeter la lumière sur ce phénomène. Les interactions verbales de 10 apprenantes et apprenants ont été enregistrées pendant la résolution de tâches linguistiques orales dans une classe d'anglais langue seconde de l'université de Sherbrooke. Pour analyser les données, nous avons utilisé des éléments de trois méthodes d'analyse, notamment la méthode microgénétique de Vygotsky, l'analyse interactionnelle et l'analyse des conversations. Les résultats ont révélé que les apprenantes et apprenants utilisent un nombre important de stratégies afin de mieux comprendre et résoudre les tâches linguistiques orales de façon efficace. Ils recourent notamment à leur langue maternelle, la répétition et la co-construction de phrases. La discussion de ces résultats a montré que la meilleure compréhension des stratégies utilisées par les apprenantes et apprenants ainsi que comment celle-ci [i.e. celles-ci] sont utilisées pourrait contribuer positivement à l'amélioration des techniques d'enseignement par tâches des langues secondes.
Resumo:
La place tenue par la statistique dans la société actuelle fait en sorte qu’il devient important de s’interroger sur l’enseignement de cette discipline. Or, son enseignement qui est inclus, du moins au niveau pré-universitaire, dans les cours de mathématiques pose un défi majeur dû au fait que les raisonnements statistiques se distinguent considérablement des raisonnements associés aux autres domaines des mathématiques scolaires. En statistique, nous sommes en présence d’un degré d’incertitude qui est en contraste avec les conclusions déterministes auxquelles les mathématiques scolaires nous ont trop souvent habitués. La statistique fournit des outils pour étudier, entre autres, des phénomènes aux données variables; au coeur de la statistique se trouve alors le concept de variabilité. Par ailleurs, bien que la statistique prenne de plus en plus de place dans les programmes scolaires, le concept de variabilité même est peu nommé dans les programmes. De plus, la formation à la statistique et à l’enseignement de cette discipline occupe une place peu importante dans les cursus universitaires de formation à l’enseignement. Puisque l’enseignement du concept de variabilité apparaît fondamental, car au coeur de la pensée statistique, on peut se demander quelles sont les connaissances des enseignants à ce sujet compte tenu justement du peu de formation des enseignants dans ce domaine et du peu d’explicitation qu’en font les programmes scolaires. Les recherches dans le domaine de l’enseignement de la statistique ont proliféré depuis la fin du siècle dernier. Certaines concernent le concept de variabilité, mais elles ont surtout été menées chez des élèves. Très peu se sont préoccupées de la façon dont les enseignants de mathématiques du secondaire prennent en compte le concept de variabilité. Nous avons donc entrepris de répondre de manière exploratoire à la question suivante: quelles sont les connaissances didactiques des enseignants en rapport avec le concept de variabilité compte tenu de leurs connaissances disciplinaires ? Pour répondre à cette question, nous avons d’abord entrepris de cerner le concept de variabilité en statistique à travers, d’une part, les travaux sur la discipline et, d’autre part, les recherches sur les élèves. Nous nous sommes concentrés sur deux dimensions du concept présentes dans le curriculum du secondaire au Québec. La première, la variabilité échantillonnale, est associée aux fluctuations d’échantillonnage qui apparaissent dans les différences entre les échantillons tirés d’une même population. La seconde, la variabilité des données, réfère à la dispersion des données statistiques. Ceci a constitué le cadre conceptuel permettant la réalisation d’une recherche qualitative de nature exploratoire. La recherche a été menée auprès de douze enseignants de mathématiques du secondaire. Dans un premier temps, les enseignants devaient répondre individuellement au premier volet du questionnaire mettant de l’avant des situations de résolution de problèmes statistiques dans lesquels le concept de variabilité intervient. Il s’en suivait, dans un deuxième temps, une entrevue où les enseignants étaient regroupés en dyade. La première partie de l’entrevue portait sur les réponses des enseignants à ce premier volet du questionnaire, et ce, afin de porter un regard sur les connaissances disciplinaires des enseignants sur le concept de variabilité. Par la suite, les enseignants devaient répondre au deuxième volet du questionnaire. À cette étape, des tâches didactiques reliées à la pratique enseignante, en lien avec les situations statistiques du premier volet du questionnaire, étaient proposées afin d’explorer, cette fois, les connaissances didactiques des enseignants sur le concept en question. La présente recherche identifie certaines conceptions et difficultés liées à l’étude du concept de variabilité et complète les recherches antérieures sur le sujet. Elle permet aussi de porter un regard sur l’enseignement de ce concept, notamment en indiquant et en documentant des pistes d’interventions possibles pour l’enseignant confronté à des raisonnements et à des réponses d’élèves. De plus, cette étude montre l’influence des connaissances disciplinaires des enseignants sur leurs connaissances didactiques et laisse aussi présager de l’insuffisance de celles-ci pour le développement des connaissances didactiques. De nos résultats émergent des considérations pour la formation de futurs enseignants et met en exergue l’importance de s’attarder aux connaissances disciplinaires et didactiques des enseignants.
Resumo:
Qu'on le déplore ou que l'on s'en félicite, la statistique est présente dans notre vie de tous les jours. Paradoxalement, les compétences pour l'appréhender semblent faire défaut, à tel point que plus d'un militent pour que la statistique fasse partie des compétences minimales de tout citoyen (statistical literacy). Mais au niveau de l'enseignement, de nombreux obstacles apparaissent quant à l'acquisition de ces compétences : ainsi, de multiples recherches ont-elles identifié maints obstacles, que ceux-ci soient d'ordre affectif ou cognitif. Toutefois ces recherches adoptent le point de vue de l'enseignant ou du chercheur et il n'en existe que peu qui se sont interrogées sur la représentation que les étudiants ont de la statistique. Tel est l'objectif général de la présente recherche. Après avoir caractérisé ce qu'est une représentation sociale et abouti à poser "qu'est statistique ce que l'on se donne comme étant statistique", une enquête a été menée en France auprès de 614 étudiants de différentes sections en Sciences humaines et sociales. Il s'en dégage qu'une vingtaine de mots rend compte de la statistique, tels mathématiques, pourcentages, chiffrs et calculs. Cependant, au-delà de ce discours commun, des différences apparaissent entre les sections quant aux mots utilisés pour caractériser la statistique : pour certains, les mots utilisés, peu nombreux, assimilent la statistique aux statistiques ; pour d'autres, elle est conçue comme des mathématiques utilisées dans le cadre d'études, de recherches. D'autres discours se distinguent soit par la proximité de la statistique avec la méthodologie du questionnaire, soit par son utilisation professionnelle : la référence aux mathématiques y est alors nettement atténuée. De ces résultats se dégagent des prolongements en termes de recherche (étude longitudinale de la représentation sociale de la statistique), en termes de pédagogie (conditions propices à la problématisation) et en termes de rapport au savoir (thêmata). Cette recherche invite les formateurs et les chercheurs en didactique à faire un pas de côté par rapport à leur propre représentation et à envisager celle potentiellement différente des apprenants ; à côté des chiffrs, il y a aussi des êtres.
Resumo:
Dans le cadre de notre mémoire, nous avons comme objectif de décrire et de comprendre comment le contexte statistique, avec son caractère quasi-proportionnel, influence le raisonnement chez les élèves au 3e cycle du primaire. D'abord, nous développons quatre problèmes. En résolvant ces problèmes, les élèves d'une classe du 3e cycle du primaire fourniront un aperçu de leur raisonnement proportionnel et statistique et des stratégies qu'ils utilisent pour la résolution de ces tâches qui favorisent un traitement statistique ou proportionnel. Le chapitre 1 de notre mémoire sert à présenter la problématique de la recherche. Ensuite, le chapitre 2 concerne le cadre conceptuel et les questions spécifiques de la recherche. Le chapitre 3 expose les considérations de la méthodologie, notamment de la description des tâches, de l'analyse et du traitement des données. Par la suite, dans le chapitre 4, nous présentons et analyserons nos données. Finalement, dans les chapitres 5 et 6, la discussion des résultats sert à mettre en relation des principaux résultats de la présente recherche. Aussi, quelques pistes à poursuivre dans d'autres recherches sont suggérées.
Resumo:
Dès le départ, l'élaboration d'une formation en ligne pour le cours Projet interdisciplinaire et Probabilités et statistique offert au Collège Gérald-Godin est apparue comme une solution intéressante aux préoccupations des enseignantes et enseignants et aux différents problèmes rencontrés. Les enseignantes et enseignants du regroupement de mathématiques trouvaient important de développer l'autonomie chez les étudiantes et les étudiants afin de bien les former pour l'université. La partie mathématique du cours présentait aussi certaines difficultés au niveau de la détermination de moments de rencontres permettant la réalisation du projet de sondage réalisé en équipe, ainsi qu'au niveau de la reprise de la partie mathématique échouée du cours qui entraînait un retard dans l'obtention du diplôme d'études collégiales. La récension des écrits a permis de définir le projet de formation en ligne développée dans cet essai. Cette formation en ligne a été réalisée de façon modeste par l'auteure de cet essai. Même les étudiantes et les étudiants ont suivi la formation en ligne, il y a aussi eu des rencontres en présence avec l'enseignante. Cette formation en ligne a utilisée un mélange de trois modèles : la classe technologique ouverte, l'autoformation Web hypermédia et l'enseignement en ligne. Elle a respecté la structure d'apprentissage suivant la séquence Unités d'apprentissage/Objets d'apprentissage/Ressources pédagogiques et a été présentée sur la plate-forme Moodle du Collège Gérald-Godin. En plus de présenter les différentes notions dans différents contextes, cette formation a favorisé une approche constructiviste dans laquelle nous retrouvons un projet de sondage. En nous basant sur la recension des écrits, la méthodologie de cet essai présente de quelle façon nous avons procédé à l'élaboration de la formation en ligne. Elle indique comment nous avons structuré la formation; les activités d'apprentissage privilégiées lors de l'élaboration de la formation en ligne; les ressources pédagogiques à rendre disponibles ainsi que la forme de ces ressources pédagogiques afin d'assurer la qualité des ressources rendues disponibles. De plus, elle présente de quelle façon nous avons utilisé l'ensemble des ressources disponibles sur la plate-forme afin d'assurer le meilleur encadrement possible.
Resumo:
Apprendre à lire exige de développer un ensemble de stratégies et, dans un contexte d’enseignement-apprentissage, il s’avère nécessaire que les stratégies de lecture soient enseignées (Fisher, Frey et Lapp, 2008). Toutefois, il semble que les enseignants se sentent peu à l’aise avec l’enseignement des stratégies de lecture par la modélisation (Martel et Lévesque, 2010; Pressley et Afflerbach, 1995). Au Saguenay-Lac-Saint-Jean, des enseignants des 2e et 3e cycles du primaire ont exprimé le besoin de réfléchir sur leurs pratiques d’enseignement des stratégies de lecture afin d’apporter les ajustements nécessaires à un apprentissage de la lecture plus accompli chez leurs élèves. Pour y parvenir, douze enseignantes, un enseignant, deux conseillères pédagogiques et une chercheure se sont engagés dans une recherche-action (Dolbec et Clément, 2004) visant l’amélioration des pratiques relatives à l’enseignement de la lecture. Comme le suggère Couture (2011), le portrait des pratiques déjà mises en place par les enseignants a été dressé dans un premier temps afin d’ancrer le processus de changement à même le travail et les besoins des enseignants. Les résultats indiquent que ce sont les stratégies utiles avant la lecture qui seraient les plus enseignées, que cet enseignement s’effectuerait principalement à l’aide du matériel didactique, et ce, avec l’ensemble du groupe classe.
Resumo:
La mise en registre 3D (opération parfois appelée alignement) est un processus de transformation d’ensembles de données 3D dans un même système de coordonnées afin d’en aligner les éléments communs. Deux ensembles de données alignés ensemble peuvent être les scans partiels des deux vues différentes d’un même objet. Ils peuvent aussi être deux modèles complets, générés à des moments différents, d’un même objet ou de deux objets distincts. En fonction des ensembles de données à traiter, les méthodes d’alignement sont classées en mise en registre rigide ou non-rigide. Dans le cas de la mise en registre rigide, les données sont généralement acquises à partir d’objets rigides. Le processus de mise en registre peut être accompli en trouvant une seule transformation rigide globale (rotation, translation) pour aligner l’ensemble de données source avec l’ensemble de données cible. Toutefois, dans le cas non-rigide, où les données sont acquises à partir d’objets déformables, le processus de mise en registre est plus difficile parce qu’il est important de trouver à la fois une transformation globale et des déformations locales. Dans cette thèse, trois méthodes sont proposées pour résoudre le problème de mise en registre non-rigide entre deux ensembles de données (représentées par des maillages triangulaires) acquises à partir d’objets déformables. La première méthode permet de mettre en registre deux surfaces se chevauchant partiellement. La méthode surmonte les limitations des méthodes antérieures pour trouver une grande déformation globale entre deux surfaces. Cependant, cette méthode est limitée aux petites déformations locales sur la surface afin de valider le descripteur utilisé. La seconde méthode est s’appuie sur le cadre de la première et est appliquée à des données pour lesquelles la déformation entre les deux surfaces est composée à la fois d’une grande déformation globale et de petites déformations locales. La troisième méthode, qui se base sur les deux autres méthodes, est proposée pour la mise en registre d’ensembles de données qui sont plus complexes. Bien que la qualité que elle fournit n’est pas aussi bonne que la seconde méthode, son temps de calcul est accéléré d’environ quatre fois parce que le nombre de paramètres optimisés est réduit de moitié. L’efficacité des trois méthodes repose sur des stratégies via lesquelles les correspondances sont déterminées correctement et le modèle de déformation est exploité judicieusement. Ces méthodes sont mises en oeuvre et comparées avec d’autres méthodes sur diverses données afin d’évaluer leur robustesse pour résoudre le problème de mise en registre non-rigide. Les méthodes proposées sont des solutions prometteuses qui peuvent être appliquées dans des applications telles que la mise en registre non-rigide de vues multiples, la reconstruction 3D dynamique, l’animation 3D ou la recherche de modèles 3D dans des banques de données.
Resumo:
Les études de cas en psychothérapie connaissent une phase de renouveau auprès des chercheurs en psychothérapie et des psychothérapeutes. L'auteur discute de deux paradigmes qui ont grandement influencé ce nouvel intérêt : le paradigme pragmatique et le paradigme qui vise la construction d'une théorie. L'article présente les origines, les développements et les concepts clés des deux paradigmes et leurs spécificités méthodologiques et éthiques. Des exemples d'études de cas ou de modèles au sein des paradigmes sont évoqués. L'influence différentielle des courants postmodernes sur les deux paradigmes, et leurs apports respectifs dans le champ des méthodes d'études de cas, sont discutés et évalués par rapport aux implications pour le chercheur et le psychothérapeute.
Resumo:
Après avoir situé la question de la dangerosité dans les perspectives psychiatriques actuelles, l'auteur propose de penser cette notion complexe dans un renversement du paradigme couramment admis : ainsi la référence à la dangerosité témoignerait-elle, au premier plan, de la part non symbolisée de la rencontre de la violence. Cette proposition prend appui dans un premier temps sur les propositions esquissées par M. Foucault dans sa compréhension du rapport à la violence et à la dangerosité. Puis, le recours au concept psychanalytique d'identification projective permet de proposer une modélisation clinique de la dangerosité, qui sera discutée à partir de deux observatoires dans le champ des violences sexuelles : celui d'une recherche menée auprès d'adolescents engagés dans des agirs sexuels violents et celui d'une pratique d'expertise judiciaire. First the author proposes to situate dangerousness's question in actual psychiatric field. Then, he proposes to think this complex notion into a reversal of dangerousness's paradigm: the reference to dangerousness will be thought as the expression of non-symbolized part through violence's meeting. This proposition relies in a first time on M. Foucault's propositions about a comprehension of the relation with violence and dangerousness. In a second time, the psychoanalytic concept of projective identification allows to propose clinical comprehension of dangerousness's notion. Two clinical situations about sexual violences will be asked in this plan: a research with Young sexual offenders and practice of judiciary evaluation.