102 resultados para survol


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La douleur est une expérience humaine des plus universelles et d’une riche variabilité culturelle. Néanmoins, il y a peu d’études sur ce sujet en général et qui plus est, la recherche sur la douleur chez les Amérindiens est presque inexistante. L’expérience de douleur de quelques 28 millions d’Amérindiens en Amérique du Sud, dont les Quichuas (Inca), est encore méconnue. Cette recherche interdisciplinaire, psychophysiologique et anthropologique, vise deux buts : (1) Étudier les effets de type analgésique du défi verbal culturellement significatif chez les Quichuas ; et (2) Faire un survol de leur système de croyances concernant la douleur, leur façon de la percevoir, de la décrire, et de la contrôler. Pour le volet expérimental, on a recruté 40 hommes en bonne santé. Les volontaires étaient assignés de façon alternée soit au groupe expérimental (20) soit au groupe contrôle (20). On a enregistré chez eux les seuils de la douleur, et celui de la tolérance à la douleur. Chez le groupe expérimental, on a, de plus, mesuré le seuil de la tolérance à la douleur avec défi verbal. La douleur était provoquée par pression au temporal, et mesurée à l’aide d’un algésimètre. Après chaque seuil, on a administré une échelle visuelle analogique. Pour le deuxième volet de l’étude, un groupe de 40 participants (15 femmes et 25 hommes) a répondu verbalement à un questionnaire en quichua sur la nature de la douleur. Celui-ci touchait les notions de cause, de susceptibilité, les caractéristiques de la douleur, les syndromes douloureux, les méthodes de diagnostic et de traitement, ainsi que la prévention. Notre étude a révélé que les participants ayant reçu le défi verbal ont présenté une tolérance accrue à la douleur statistiquement significative. Les valeurs de l’échelle visuelle analogique ont aussi augmenté chez ce groupe, ce qui indique un état accru de conscience de la douleur. L’expérience de la douleur chez les Quichuas est complexe et les stratégies pour la combattre sont sophistiquées. Selon leur théorie, le vécu d’émotions intenses, dues à des évènements de la vie, à l’existence d’autres maladies qui affectent la personne de façon concomitante, et aux esprits présents dans la nature ou chez d’autres personnes joue un rôle dans l’origine, le diagnostic et le traitement de la douleur. Les Quichuas accordent une grande crédibilité à la biomédecine ainsi qu’à la médecine traditionnelle quichua. Ils perçoivent la famille et le voisinage comme étant des sources supplémentaires de soutien. Il ressort également que les Quichuas préfèrent un service de santé de type inclusif et pluraliste. En conclusion, cette étude a révélé que des mots culturellement significatifs ayant une connotation de défi semblent augmenter la tolérance à la douleur chez les Quichuas. Il s’agit de la première étude à documenter les effets analgésiques de la parole. D’autre part, cette étude souligne également la potentielle utilité clinique de connaître le système quichua de croyances entourant la douleur et le contrôle de cette dernière. Ceci s’avère particulièrement utile pour les cliniciens soucieux d’offrir des soins de santé de meilleure qualité, culturellement adaptés, dans les Andes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La saga Saw est une franchise qui a marqué le cinéma d’horreur des années 2000. Le présent mémoire tâchera d’en faire une étude détaillée et rigoureuse en utilisant la notion de jeu. En élaborant tout d’abord un survol du cinéma d’horreur contemporain et en observant la réception critique de la saga à travers l’étude de différents articles, ce travail tentera en majeure partie d’analyser la franchise Saw en rapport avec l’approche ludique du cinéma en général et celle adoptée par Bernard Perron. Cette étude, qui s’élaborera tant au niveau diégétique que spectatoriel, aura pour but de montrer l’importance de la place qu’occupe la notion de jeu dans cette série de films.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Peut-être mieux connu sous son appellation anglaise d' «online dispute resolution» ou ODR, le règlement en ligne des différends réfère à la migration, vers Internet, des modes alternatifs de résolution des conflits, dont font entre autres partie la négociation, la conciliation, la médiation et l'arbitrage. Cet article présente d'abord brièvement les quatre procédés d'ODR les plus souvent rencontrés en pratique, soit la négociation  automatisée, la négociation en ligne assistée par ordinateur, la médiation en ligne et l'arbitrage en ligne. Il examine ensuite les types de conflits qui trouvent actuellement une solution par l'entremise de l'Internet, conflits qui peuvent naître aussi bien sur la Toile qu'hors ligne. On y aborde, en troisième lieu, les avantages de la résolution en ligne des litiges, lesquels ont trait à la modicité, la rapidité, la souplesse et la convivialité, en insistant sur l'attrait tout particulier que cette nouvelle forme de justice présente pour les conflits résultant de la cyberconsommation. Puis, après un survol des arguments les plus souvent cités à l'encontre du règlement électronique des différends, on fait état du phénomène d'institutionnalisation de la résolution en ligne, qui investit aujourd'hui les cours de justice.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans cet article issu d’une conférence prononcée dans le cadre du Colloque Leg@l.IT (www.legalit.ca), l’auteur offre un rapide survol des fonctionnalités offertes par les systèmes de dépôt électronique de la Cour fédérale et de la Cour canadienne de l’impôt afin de dégager les avantages et inconvénients de chacune des technologies proposées. Cet exercice s’inscrit dans une réflexion plus large sur les conséquences de la migration progressive de certaines juridictions vers le dépôt électronique. Si cette tentative de moderniser le processus judiciaire se veut bénéfique, il demeure qu’un changement technologique d’une telle importance n’est pas sans risques et sans incidences sur les us et coutumes de l’appareil judiciaire. L’auteur se questionne ainsi sur la pratique adoptée par certains tribunaux judiciaires de développer en silo des solutions d’informatisation du processus de gestion des dossiers de la Cour. L’absence de compatibilité des systèmes et le repli vers des modèles propriétaires sont causes de soucis. Qui plus est, en confiant le développement de ces systèmes à des firmes qui en conservent la propriété du code source, ils contribuent à une certaine privatisation du processus rendant la mise en réseau de l’appareil judiciaire d’autant plus difficile. Or, dans la mesure où les systèmes de différents tribunaux seront appelés à communiquer et échanger des données, l’adoption de solutions technologiques compatibles et ouvertes est de mise. Une autre problématique réside dans l’apparente incapacité du législateur de suivre l’évolution vers la  virtualisation du processus judiciaire. Le changement technologique impose, dans certains cas, un changement conceptuel difficilement compatible avec la législation applicable. Ce constat implique la nécessité d’un questionnement plus profond sur la pertinence d’adapter le droit à la technologie ou encore la technologie au droit afin d’assurer une coexistence cohérente et effective de ces deux univers.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cet article traite des règles de preuve dans un contexte électronique, et souligne les différences et similitudes entre les systèmes retenus par les provinces de common law et de droit civil. Il présente certains principes généraux, ainsi qu’un bref survol du droit de la preuve face à l’avènement de l’immatériel. Il englobe une analyse des règles d’admissibilité de la preuve telles que la règle de la meilleure preuve, et l’exception au ouï-dire, ainsi que la force probante des documents électroniques. Il envisage, enfin une application pratique, soit la signature électronique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse porte sur l’étude de la relation entre la structure et la fonction chez les cotransporteurs Na+/glucose (SGLTs). Les SGLTs sont des protéines membranaires qui se servent du gradient électrochimique transmembranaire du Na+ afin d’accumuler leurs substrats dans la cellule. Une mise en contexte présentera d’abord un bref résumé des connaissances actuelles dans le domaine, suivi par un survol des différentes techniques expérimentales utilisées dans le cadre de mes travaux. Ces travaux peuvent être divisés en trois projets. Un premier projet a porté sur les bases structurelles de la perméation de l’eau au travers des SGLTs. En utilisant à la fois des techniques de modélisation moléculaire, mais aussi la volumétrie en voltage imposé, nous avons identifié les bases structurelles de cette perméation. Ainsi, nous avons pu identifier in silico la présence d’une voie de perméation passive à l’eau traversant le cotransporteur, pour ensuite corroborer ces résultats à l’aide de mesures faites sur le cotransporteur Na/glucose humain (hSGLT1) exprimé dans les ovocytes. Un second projet a permis d’élucider certaines caractéristiques structurelles de hSGLT1 de par l’utilisation de la dipicrylamine (DPA), un accepteur de fluorescence dont la répartition dans la membrane lipidique dépend du potentiel membranaire. L’utilisation de la DPA, conjuguée aux techniques de fluorescence en voltage imposé et de FRET (fluorescence resonance energy transfer), a permis de démontrer la position extracellulaire d’une partie de la boucle 12-13 et le fait que hSGLT1 forme des dimères dont les sous-unités sont unies par un pont disulfure. Un dernier projet a eu pour but de caractériser les courants stationnaires et pré-stationaires d’un membre de la famille des SGLTs, soit le cotransporteur Na+/myo-inositol humain hSMIT2 afin de proposer un modèle cinétique qui décrit son fonctionnement. Nous avons démontré que la phlorizine inhibe mal les courants préstationnaires suite à une dépolarisation, et la présence de courants de fuite qui varient en fonction du temps, du potentiel membranaire et des substrats. Un algorithme de recuit simulé a été mis au point afin de permettre la détermination objective de la connectivité et des différents paramètres associés à la modélisation cinétique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La liste des domaines touchés par l’apprentissage machine s’allonge rapidement. Au fur et à mesure que la quantité de données disponibles augmente, le développement d’algorithmes d’apprentissage de plus en plus puissants est crucial. Ce mémoire est constitué de trois parties: d’abord un survol des concepts de bases de l’apprentissage automatique et les détails nécessaires pour l’entraînement de réseaux de neurones, modèles qui se livrent bien à des architectures profondes. Ensuite, le premier article présente une application de l’apprentissage machine aux jeux vidéos, puis une méthode de mesure performance pour ceux-ci en tant que politique de décision. Finalement, le deuxième article présente des résultats théoriques concernant l’entraînement d’architectures profondes nonsupervisées. Les jeux vidéos sont un domaine particulièrement fertile pour l’apprentissage automatique: il estf facile d’accumuler d’importantes quantités de données, et les applications ne manquent pas. La formation d’équipes selon un critère donné est une tˆache commune pour les jeux en lignes. Le premier article compare différents algorithmes d’apprentissage à des réseaux de neurones profonds appliqués à la prédiction de la balance d’un match. Ensuite nous présentons une méthode par simulation pour évaluer les modèles ainsi obtenus utilisés dans le cadre d’une politique de décision en ligne. Dans un deuxième temps nous présentons une nouvelleméthode pour entraîner des modèles génératifs. Des résultats théoriques nous indiquent qu’il est possible d’entraîner par rétropropagation des modèles non-supervisés pouvant générer des échantillons qui suivent la distribution des données. Ceci est un résultat pertinent dans le cadre de la récente littérature scientifique investiguant les propriétés des autoencodeurs comme modèles génératifs. Ces résultats sont supportés avec des expériences qualitatives préliminaires ainsi que quelques résultats quantitatifs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Après avoir établi les bases méthodologiques de cette recherche, nous avons débuté notre réflexion en inscrivant la problématique du port des signes religieux dans l’espace public dans le débat qui perdure entre les perspectives différentialiste et universaliste au niveau de l’application des droits à l’égalité. Par la suite, nous effectuons un survol des cadres conceptuels appropriés à l’analyse du sujet: le libéralisme classique et le républicanisme qui se rapportent à la vision universaliste. Les divers types de féminisme juridique, la théorie de l’intersectionnalité, l’approche communautarienne, le libéralisme repensé de Kymlicka et les valeurs relatives au droit à l’égalité de Sandra Fredman qui se rangent sous la houlette de la philosophie différentialiste. Par la suite, le libéralisme repensé de Kymlicka et les valeurs relatives au droit à l’égalité de Fredman sont identifiés comme étant les cadres les plus appropriés à l’analyse du sujet à l’étude. Dans cette même optique, notre examen du droit international nous a permis de démontrer que pendant que le droit européen se range davantage dans la perspective universaliste au niveau de l’examen du droit à la liberté de religion, tel n’est pas le cas pour le droit onusien qui se joint timidement à la vision différentialiste et donc, du libéralisme repensé de Kymlicka et de la perspective des droits à l’égalité de Fredman. Au niveau des systèmes juridiques des États-Unis, du Canada, de la France et de la Suisse, nous avons vu une application intermittente des deux perspectives dépendant du domaine d’activité en cause. Cependant, le Canada est ressorti de notre analyse comme étant celle ayant une approche plus axée sur la vision différentialiste en raison de sa neutralité inclusive ou bienveillante qui accorde une grande place à l’inclusion et à l’égalité réelle de ces nationaux.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse, composée de quatre articles scientifiques, porte sur les méthodes numériques atomistiques et leur application à des systèmes semi-conducteurs nanostructurés. Nous introduisons les méthodes accélérées conçues pour traiter les événements activés, faisant un survol des développements du domaine. Suit notre premier article, qui traite en détail de la technique d'activation-relaxation cinétique (ART-cinétique), un algorithme Monte Carlo cinétique hors-réseau autodidacte basé sur la technique de l'activation-relaxation nouveau (ARTn), dont le développement ouvre la voie au traitement exact des interactions élastiques tout en permettant la simulation de matériaux sur des plages de temps pouvant atteindre la seconde. Ce développement algorithmique, combiné à des données expérimentales récentes, ouvre la voie au second article. On y explique le relâchement de chaleur par le silicium cristallin suite à son implantation ionique avec des ions de Si à 3 keV. Grâce à nos simulations par ART-cinétique et l'analyse de données obtenues par nanocalorimétrie, nous montrons que la relaxation est décrite par un nouveau modèle en deux temps: "réinitialiser et relaxer" ("Replenish-and-Relax"). Ce modèle, assez général, peut potentiellement expliquer la relaxation dans d'autres matériaux désordonnés. Par la suite, nous poussons l'analyse plus loin. Le troisième article offre une analyse poussée des mécanismes atomistiques responsables de la relaxation lors du recuit. Nous montrons que les interactions élastiques entre des défauts ponctuels et des petits complexes de défauts contrôlent la relaxation, en net contraste avec la littérature qui postule que des "poches amorphes" jouent ce rôle. Nous étudions aussi certains sous-aspects de la croissance de boîtes quantiques de Ge sur Si (001). En effet, après une courte mise en contexte et une introduction méthodologique supplémentaire, le quatrième article décrit la structure de la couche de mouillage lors du dépôt de Ge sur Si (001) à l'aide d'une implémentation QM/MM du code BigDFT-ART. Nous caractérisons la structure de la reconstruction 2xN de la surface et abaissons le seuil de la température nécessaire pour la diffusion du Ge en sous-couche prédit théoriquement par plus de 100 K.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’apparition et la montée du fascisme en Italie sont des faits marquants du XXe siècle et plus précisément de l’entre-deux-guerres. Ce nouveau phénomène social a rapidement attiré l’attention de la communauté internationale. Il vient frapper les mentalités européennes dans le contexte de sociétés déjà polarisées par divers courants idéologiques. La Première Guerre mondiale a fait place à de fondamentales divergences d’opinions sur ce que devait être le futur, autant social qu’économique, des sociétés industrielles. S’étant imposé en Italie, le fascisme représente un de ses mouvements. Ce travail s’intéresse à la manière dont la société française a perçu la montée du fascisme italien. Pour ce faire, il retrace l’approche de plusieurs journaux français de 1919 à 1926 à l’égard de l’expérience italienne. L’analyse des grands journaux Le Temps, L'Humanité, Le Figaro et L'Action française permet un survol de l’opinion politique en France. La problématique avancée dans ce travail nous aide à en apprendre plus, non seulement sur l’apparition d’un phénomène majeur du siècle précédent, mais aussi, plus précisément, sur le regard porté sur lui par les grands courants politiques français. On a pu déceler plusieurs thèmes de prédilection abordés par la presse française. Premièrement, celle-ci a tenté de définir le fascisme, son origine et sa composition ainsi que le phénomène de la violence qui touchait la péninsule. Puis, le fascisme ayant accédé au pouvoir, elle a réfléchi sur le coup de force et ses répercussions. Finalement, elle a analysé la politique intérieure et extérieure du nouveau régime. Il en ressort une perspective unique grâce à l'analyse de quatre organes majeurs qui représentent et façonnent l'opinion publique en France. Notre analyse montre que le fascisme est un sujet préoccupant pour les contemporains par son caractère nouveau. Tous les journaux ont suivi l'évolution de ce mouvement avec attention. Les réactions en témoignent: ce fut, entre autres, l'exemple frappant d'une répression brutale pour les uns et l'émergence d'une idéologie susceptible de mettre fin à la terreur du bolchevisme pour les autres. Ce fut aussi un terrain d'affrontement idéologique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

On révise les prérequis de géométrie différentielle nécessaires à une première approche de la théorie de la quantification géométrique, c'est-à-dire des notions de base en géométrie symplectique, des notions de groupes et d'algèbres de Lie, d'action d'un groupe de Lie, de G-fibré principal, de connexion, de fibré associé et de structure presque-complexe. Ceci mène à une étude plus approfondie des fibrés en droites hermitiens, dont une condition d'existence de fibré préquantique sur une variété symplectique. Avec ces outils en main, nous commençons ensuite l'étude de la quantification géométrique, étape par étape. Nous introduisons la théorie de la préquantification, i.e. la construction des opérateurs associés à des observables classiques et la construction d'un espace de Hilbert. Des problèmes majeurs font surface lors de l'application concrète de la préquantification : les opérateurs ne sont pas ceux attendus par la première quantification et l'espace de Hilbert formé est trop gros. Une première correction, la polarisation, élimine quelques problèmes, mais limite grandement l'ensemble des observables classiques que l'on peut quantifier. Ce mémoire n'est pas un survol complet de la quantification géométrique, et cela n'est pas son but. Il ne couvre ni la correction métaplectique, ni le noyau BKS. Il est un à-côté de lecture pour ceux qui s'introduisent à la quantification géométrique. D'une part, il introduit des concepts de géométrie différentielle pris pour acquis dans (Woodhouse [21]) et (Sniatycki [18]), i.e. G-fibrés principaux et fibrés associés. Enfin, il rajoute des détails à quelques preuves rapides données dans ces deux dernières références.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Au cours de la dernière décennie, le domaine de la fonctionnalisation directe des liens C–H a connu un intérêt croissant, en raison de la demande de processus chimiques moins dispendieux, plus efficaces et plus écologiques. . Les cyclopropanes représentent un motif structural souvent retrouvé dans des agents biologiquement actifs importants et dans des intermédiaires de synthèse permettant l'accès à des architectures complexes. Malgré leur valeur intrinsèque, la fonctionnalisation directe des cyclopropanes n’a pas été largement explorée. Ce mémoire traitera de deux méthodologies liées, mais tout aussi différentes, impliquant la fonctionnalisation directe des liens C–H cyclopropaniques impliquant des réactions intramoléculaires catalysées par un complex de palladium et assistées par l’argent. Le premier chapitre présentera d’abord un bref survol de la littérature sur les fondements de la fonctionnalisation directe ainsi que les contributions majeures réalisées dans ce domaine. L’accent sera notamment mis sur la fonctionnalisation des centres sp3 et sera souligné par des exemples pertinents. Les découvertes clés concernant le mécanisme et les cycles catalytiques de ces processus seront discutées. Le second chapitre décrira comment les 2-bromoanilides peuvent être utilisés pour accéder à des motifs particuliers de type spiro 3,3’ oxindoles cyclopropyliques. L'optimisation et l’étendue de la réaction seront abordés, suivis par des études mécanistiques réfutant l’hypothèse de la formation d’un intermédiaire palladium-énolate. Ces études mécanistiques comprennent une étude cinétique de l'effet isotopique ainsi que des études sur épimérisation; celles-ci ont confirmé que la réaction se produit par arylation directe. Sur la base des résultats obtenus dans le deuxième chapitre, nous aborderons ensuite la fonctionnalisation directe des benzamides cyclopropyliques lesquels, après une ouverture de cycle, donneront de nouveaux produits benzo [c] azépine-1-ones (chapitre trois). Après avoir présenté une brève optimisation et l’étendue de la réaction, nous discuterons des études mécanistiques impliquées à déduire l'ordre des événements dans le cycle catalytique et à déterminer le rôle des réactifs. Celles-ci permetteront de conclure que la fonctionnalisation de l’unité cyclopropyle se produit avant l’ouverture de cycle et que l'acétate est responsable de la déprotonation-métalation concertée. Le dernier chapitre (chapitre quatre) traitera en rétrospective de ce qui a été appris à partir de deux méthodologies divergentes et connexes et de comment ces résultats peuvent être exploités pour explorer d’autres types de fonctionnalisations directes sur des cyclopropanes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire est consacré aux œuvres de fiction de la cinéaste Paule Baillargeon. Il s'agit d'examiner le processus de subjectivation, en retraçant son parcours cinématographique par l'entremise de ses longs métrages de fiction, et de voir comment elle utilise le langage cinématographique de façon singulière en permettant une prise de parole alternative devant et derrière la caméra. Alors que le cinéma dominant persiste à catégoriser les œuvres des réalisatrices québécoises de "films de femmes" ou de "cinéma de femmes", un bref survol de l'évolution générale des femmes en fiction, et de l'expérience de Baillargeon en particulier, permet de rendre compte des difficultés d'accessibilité qui persistent pour elles dans ce secteur d'activités. Par la suite, l'analyse des quatre principales œuvres de la réalisatrice - Anastasie oh ma chérie (1977), La cuisine rouge (1980), Le sexe des étoiles (1993), Trente tableaux (2011) - témoigne de la nécessité de cette prise de parole alternative, mais aussi de l'interaction entre chacun des films et une théorie féministe spécifique, issue entre autres des travaux de Luce Irigaray et Judith Butler.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’existence d’un sous-type dissociatif de schizophrénie a été suggérée par plusieurs auteurs pour rendre compte des présentations symptomatologiques d’un groupe de personnes dont le diagnostic principal est dans le spectre de la schizophrénie mais qui présentent aussi des symptômes dissociatifs (Ross, 2004; Şar et al., 2010; Van der Hart, Witztum, & Friedman, 1993). D’origine traumatique, ce type de portrait clinique où symptômes psychotiques et dissociatifs s’entremêlent aurait été décrit il y a déjà plus d’un siècle (Janet & Raymond, 1898) mais serait disparu dans les années ’30, assimilé au concept de « schizophrénie » (Rosenbaum, 1980). C’est dans un nouveau contexte nosographique que le concept de schizophrénie dissociative refait surface. En effet, la nosographie psychiatrique a pris un tournant en 1980 lorsque l’approche préconisée par le DSM est devenue descriptive plutôt que basée sur des conceptualisations psychanalytiques. Du coup, les affections d’alors ont été divisées en troubles dont les symptômes ont tendance à se manifester ensemble (Cooper, 2004) et la comorbidité entre les troubles a augmenté. Étant donné la comorbidité fréquemment rapportée entre les troubles psychotiques et dissociatifs, la similarité phénoménologique de leurs symptômes, ainsi que leur possible étiologie traumatique, Ross (2004) a proposé une série de critères permettant de diagnostiquer une schizophrénie dissociative. L’objectif principal de cette thèse est donc d’établir si la schizophrénie dissociative, telle que définie par Ross (2004), existe. Le premier article porte sur la problématique et le contexte théorique ayant mené à la question de recherche. Il vise à faire un survol des enjeux entourant la question de la schizophrénie dissociative et rend compte des écrits scientifiques sur la symptomatologie similaire entre les troubles psychotiques et dissociatifs, sur leur étiologie traumatique et sur les études sur la dissociation et la schizophrénie. Le deuxième article est quant à lui un article empirique rendant compte de la méthodologie utilisée pour répondre à la question de recherche. En effet, aucune étude jusqu’ici n’a testé systématiquement les critères de la schizophrénie dissociative. Nos résultats démontrent que 24% de notre échantillon (N=50) pourrait recevoir le diagnostic de schizophrénie dissociative avec les critères proposés par Ross (2004). Toutefois, ces critères posant problème, une modification a été proposée et une prévalence de 14% a alors été trouvée. Des vignettes cliniques sont présentées afin de comparer nos participants avec ceux rapportés ailleurs. Les liens entre symptômes psychotiques et dissociatifs sont discutés en essayant de conceptualiser la schizophrénie dissociative de différentes manières, soit comme une nouvelle entité clinique, comme un trouble comorbide ou dans un contexte nosographique psychodynamique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La version intégrale de ce mémoire est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (www.bib.umontreal.ca/MU).