986 resultados para Navires de guerre -- États-Unis


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Contribution from Office of Information.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

"Cet ouvrage existe depuis plus de douze ans. Je l'avais écrit pour M. Jefferson, l'homme des deux mondes que je respecte le plus, et, s'il le jugeait à propos, pour les États-Unis de l'Amérique du nord, où en effet il a été imprimé en 1811"--Avertissement, p. [v].

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Des recherches au Québec (Garon, 2009), en France (Donnat, 2011) et aux États-Unis (Kolb, 2001) confirment un état de fait général: le vieillissement du public de la musique classique. Si le public du répertoire est reconnu pour posséder un haut niveau d’études, pourquoi les étudiants universitaires de nos jours ne sont-ils pas plus présents dans les salles de concert ? Cette étude explore cette problématique d’abord par une recherche historique et par des entrevues auprès de certains des organismes de musique classique à Montréal, et ce afin de comprendre leurs stratégies de développement des publics concernés de 2004 à 2014. Ensuite, par un sondage auprès de 555 étudiants universitaires de la ville, pour faire un portrait de leur relation avec la musique à l’heure actuelle. Notre analyse, appuyée par une bibliographie en sociomusicologie et en sociologie des pratiques culturelles, confirme des tendances comme celle de l’«omnivorisme culturel» et l’éclectisme musical des jeunes universitaires. Elle nous montre aussi une réception positive des œuvres classiques, quoiqu’incompatible avec les critères esthétiques des genres musicaux favoris. À partir de ce paradoxe, nous étudions la force des motivations extramusicales qui les amènent aux concerts, leurs formats préférés, l’impact de l’éducation musicale, l’influence des parents, de l’internet, des nouvelles technologies. Finalement, nous constatons le nombre peu élevé d’initiatives des organismes musicaux dans le milieu universitaire à Montréal qui, pourtant, se montre un bassin au grand potentiel pour le renouvellement des publics de la musique classique.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Jusqu’à son suicide dans la nuit du 12 au 13 mars 1990, à l’âge de 86 ans, Bruno Bettelheim a marqué l’histoire de la psychologie. Dix-sept ouvrages, dont quatre écrits en collaboration, constituent, pour l’essentiel, sa contribution originale au traitement de l’autisme infantile : une thérapie de milieu, entièrement fondée sur les travaux de Freud. Certains n’hésitent pas, d’ailleurs, à le considérer comme un pionnier de l’histoire de la psychanalyse. Après sa mort, cependant, les langues se délient. D’anciens pensionnaires de l’école orthogénique de Chicago racontent que Bettelheim les battait, témoignages corroborés par d’anciens membres du personnel. Des proches collaborateurs ont même affirmé que Bettelheim mentait tout le temps, mensonges qui ont contribué à créer « le mythe Bettelheim », bien décrit dans l’ouvrage de Pollak (1997/2003), Bruno Bettelheim ou la fabrication d’un mythe. L’objectif de ce texte n’est pas d’aborder l’ensemble des reproches adressés à Bettelheim et à son oeuvre, mais d’examiner les failles de son fameux ouvrage Psychanalyse des contes de fées (Bettelheim, 1976). Salué par deux prix en 1977 (National Book Critics Circle Award et National Book Award), Psychanalyse des contes de fées reste, sans conteste, le plus grand succès populaire de tous ses ouvrages, tant aux États-Unis d’Amérique que dans les pays francophones. En 1995, la New York Public Library plaçait l’ouvrage parmi les 159 « livres du siècle », en dépit des quelques critiques dévastatrices parues dès sa sortie (Arthur, 1978 ; Blos, 1978 ; Heisig, 1977 ; Lurie, 1976 ; Zipes, 1979), dont une accusation de plagiat, laquelle accusation réapparaîtra après sa mort (Dundes, 1991b ; Pollak, 1997/2003). Nous présenterons, d’abord, le point de vue de Bettelheim, quant aux bienfaits, pour les enfants, de s’entendre raconter, par un adulte, les contes de fées. Nous verrons alors, à notre grande surprise, que la valeur qu’il leur accorde, en utilisant une grille psychanalytique, est non seulement largement exagérée, mais contraire aux données empiriques et historiques. Le recours de Bettelheim à la notion du complexe d’OEdipe, largement commentée dans son ouvrage, servira d’exemple. Nous discuterons brièvement, ensuite, du silence de Bettelheim sur les auteurs qui ont écrit sur le sujet et de l’accusation de plagiat portée contre lui.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Thèse réalisée en cotutelle avec l'Université Paris-Sorbonne et l'Université de Montréal. Composition du jury : M. Laurent Cugny (Université Paris-Sorbonne) ; M. Michel Duchesneau (Université de Montréal) ; M. Philippe Gumplowicz (Université d'Evry-Val d'Essonne) ; Mme Barbara Kelly (Keele University - Royal Northern College of Music) ; M. François de Médicis (Université de Montréal) ; M. Christopher Moore (Université d'Ottawa)

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Jusqu’à son suicide dans la nuit du 12 au 13 mars 1990, à l’âge de 86 ans, Bruno Bettelheim a marqué l’histoire de la psychologie. Dix-sept ouvrages, dont quatre écrits en collaboration, constituent, pour l’essentiel, sa contribution originale au traitement de l’autisme infantile : une thérapie de milieu, entièrement fondée sur les travaux de Freud. Certains n’hésitent pas, d’ailleurs, à le considérer comme un pionnier de l’histoire de la psychanalyse. Après sa mort, cependant, les langues se délient. D’anciens pensionnaires de l’école orthogénique de Chicago racontent que Bettelheim les battait, témoignages corroborés par d’anciens membres du personnel. Des proches collaborateurs ont même affirmé que Bettelheim mentait tout le temps, mensonges qui ont contribué à créer « le mythe Bettelheim », bien décrit dans l’ouvrage de Pollak (1997/2003), Bruno Bettelheim ou la fabrication d’un mythe. L’objectif de ce texte n’est pas d’aborder l’ensemble des reproches adressés à Bettelheim et à son oeuvre, mais d’examiner les failles de son fameux ouvrage Psychanalyse des contes de fées (Bettelheim, 1976). Salué par deux prix en 1977 (National Book Critics Circle Award et National Book Award), Psychanalyse des contes de fées reste, sans conteste, le plus grand succès populaire de tous ses ouvrages, tant aux États-Unis d’Amérique que dans les pays francophones. En 1995, la New York Public Library plaçait l’ouvrage parmi les 159 « livres du siècle », en dépit des quelques critiques dévastatrices parues dès sa sortie (Arthur, 1978 ; Blos, 1978 ; Heisig, 1977 ; Lurie, 1976 ; Zipes, 1979), dont une accusation de plagiat, laquelle accusation réapparaîtra après sa mort (Dundes, 1991b ; Pollak, 1997/2003). Nous présenterons, d’abord, le point de vue de Bettelheim, quant aux bienfaits, pour les enfants, de s’entendre raconter, par un adulte, les contes de fées. Nous verrons alors, à notre grande surprise, que la valeur qu’il leur accorde, en utilisant une grille psychanalytique, est non seulement largement exagérée, mais contraire aux données empiriques et historiques. Le recours de Bettelheim à la notion du complexe d’OEdipe, largement commentée dans son ouvrage, servira d’exemple. Nous discuterons brièvement, ensuite, du silence de Bettelheim sur les auteurs qui ont écrit sur le sujet et de l’accusation de plagiat portée contre lui.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette recherche part d’un double intérêt. Pour la spiritualité, dont on entend beaucoup parler dans un 21e siècle inquiet et en quête de nouveaux repères. Et pour le cinéma, ou 7e art, phénomène culturel phare des temps modernes, qui reflète abondamment les problématiques et questionnements du monde. À une époque où on observe une tendance à l’homogénéisation culturelle, résultat de la mondialisation économique, cette thèse traite du « cinéma transnational ». Elles aussi, les œuvres de ce cinéma traversent l’espace planétaire, mais tout en conservant un solide ancrage local et une singularité artistique. Ce sont en bonne partie les films que l’on retrouve dans les festivals internationaux, tels Cannes, Venise et Berlin. Le cinéma traduisant toutes les interrogations possibles du présent, plusieurs films apparaissent donc porteurs d’un questionnement à portée spirituelle. Et ce, avec des moyens non discursifs, propres à l’art cinématographique. Ils invitent aussi à la rencontre de l’autre. L’objectif de la thèse consiste à décrire comment, par l’analyse d’une douzaine de films transnationaux, on peut dégager de nouveaux concepts sur la façon avec laquelle se vit la spiritualité à notre époque, en relation avec l’autre, et pourquoi cette spiritualité s’accompagne nécessairement de considérations éthiques. Pour accomplir cette tâche, la thèse s’appuie sur les travaux de deux philosophes, Gilles Deleuze (France) et Stanley Cavell (États-Unis), qui ont marqué les études cinématographiques au cours des dernières décennies, par des approches jugées complémentaires pour cette recherche. Le premier a développé sa pensée à partir de ce qui distingue le cinéma des autres arts, et le second, à partir de l’importance du cinéma pour les spectateurs et les spectatrices. Enfin, la thèse se veut une théologie, ou pensée théologico-philosophique, indépendante d’une tradition religieuse et au diapason des réalités du 21e siècle.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette thèse développe des méthodes bootstrap pour les modèles à facteurs qui sont couram- ment utilisés pour générer des prévisions depuis l'article pionnier de Stock et Watson (2002) sur les indices de diffusion. Ces modèles tolèrent l'inclusion d'un grand nombre de variables macroéconomiques et financières comme prédicteurs, une caractéristique utile pour inclure di- verses informations disponibles aux agents économiques. Ma thèse propose donc des outils éco- nométriques qui améliorent l'inférence dans les modèles à facteurs utilisant des facteurs latents extraits d'un large panel de prédicteurs observés. Il est subdivisé en trois chapitres complémen- taires dont les deux premiers en collaboration avec Sílvia Gonçalves et Benoit Perron. Dans le premier article, nous étudions comment les méthodes bootstrap peuvent être utilisées pour faire de l'inférence dans les modèles de prévision pour un horizon de h périodes dans le futur. Pour ce faire, il examine l'inférence bootstrap dans un contexte de régression augmentée de facteurs où les erreurs pourraient être autocorrélées. Il généralise les résultats de Gonçalves et Perron (2014) et propose puis justifie deux approches basées sur les résidus : le block wild bootstrap et le dependent wild bootstrap. Nos simulations montrent une amélioration des taux de couverture des intervalles de confiance des coefficients estimés en utilisant ces approches comparativement à la théorie asymptotique et au wild bootstrap en présence de corrélation sérielle dans les erreurs de régression. Le deuxième chapitre propose des méthodes bootstrap pour la construction des intervalles de prévision permettant de relâcher l'hypothèse de normalité des innovations. Nous y propo- sons des intervalles de prédiction bootstrap pour une observation h périodes dans le futur et sa moyenne conditionnelle. Nous supposons que ces prévisions sont faites en utilisant un ensemble de facteurs extraits d'un large panel de variables. Parce que nous traitons ces facteurs comme latents, nos prévisions dépendent à la fois des facteurs estimés et les coefficients de régres- sion estimés. Sous des conditions de régularité, Bai et Ng (2006) ont proposé la construction d'intervalles asymptotiques sous l'hypothèse de Gaussianité des innovations. Le bootstrap nous permet de relâcher cette hypothèse et de construire des intervalles de prédiction valides sous des hypothèses plus générales. En outre, même en supposant la Gaussianité, le bootstrap conduit à des intervalles plus précis dans les cas où la dimension transversale est relativement faible car il prend en considération le biais de l'estimateur des moindres carrés ordinaires comme le montre une étude récente de Gonçalves et Perron (2014). Dans le troisième chapitre, nous suggérons des procédures de sélection convergentes pour les regressions augmentées de facteurs en échantillons finis. Nous démontrons premièrement que la méthode de validation croisée usuelle est non-convergente mais que sa généralisation, la validation croisée «leave-d-out» sélectionne le plus petit ensemble de facteurs estimés pour l'espace généré par les vraies facteurs. Le deuxième critère dont nous montrons également la validité généralise l'approximation bootstrap de Shao (1996) pour les regressions augmentées de facteurs. Les simulations montrent une amélioration de la probabilité de sélectionner par- cimonieusement les facteurs estimés comparativement aux méthodes de sélection disponibles. L'application empirique revisite la relation entre les facteurs macroéconomiques et financiers, et l'excès de rendement sur le marché boursier américain. Parmi les facteurs estimés à partir d'un large panel de données macroéconomiques et financières des États Unis, les facteurs fortement correlés aux écarts de taux d'intérêt et les facteurs de Fama-French ont un bon pouvoir prédictif pour les excès de rendement.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le but de cette recherche est d’évaluer l’importance du paysage culturel dans la résilience des communautés urbaines post-catastrophes. Ce travail se concentre sur le quartier du Lower Ninth Ward dans la ville de La Nouvelle-Orléans (États-Unis) après le passage de l’ouragan Katrina en 2005. Les catastrophes naturelles prennent une envergure et causent des dommages considérables lorsqu’elles touchent des villes. La reconstruction post -désastre est donc très dispendieuse pour les villes et les gouvernements, d’autant que certaines régions sont dévastées au point qu’elles doivent être reconstruites au complet. Cependant, le coût le plus lourd à assumer reste celui en vies humaines et si rebâtir les éléments concrets d’une ville est une tâche difficile à entreprendre, reconstruire une communauté est considérablement plus complexe. Dans le but de comprendre une telle démarche, cette recherche se concentre sur les éléments intangibles, comme l’attachement au lieu et les réseaux sociaux, dont une communauté a besoin pour se reconstituer de façon durable et résiliente. Le concept de résilience est très contesté dans la littérature et plusieurs chercheurs se sont essayés à le mesurer. Cette recherche adopte une perspective critique sur le concept et le revisite d’un point de vue holistique pour mettre en lumière sa complexité. Cette démarche permet de remettre en question l’importance de mesurer un concept finalement en perpétuelle redéfinition dans le temps et selon les échelles géographiques. De plus, en établissant une relation entre résilience et paysage culturel, il a été possible de mieux comprendre la complexité de la résilience. Touchant à plusieurs disciplines (architecture de paysage, urbanisme et sociologie), cette recherche utilise une méthodologie qui reflète son aspect multidisciplinaire : les méthodes mixtes. Ces dernières permettent la collecte de données quantitatives et qualitatives qui produisent une vue globale de la situation post-Katrina à travers le regroupement de recensions statistiques, d’observations de terrain et d’articles de journaux. Parallèlement, des entretiens ont été réalisés avec des résidents du quartier ainsi qu’avec des professionnels pour mieux comprendre les différents points de vue. Cette méthodologie a permis de produire des résultats au niveau du cas d’étude autant qu’au niveau théorique. La recherche valide l’importance de prendre en compte le paysage culturel dans les situations post-catastrophes, (en particulier) dans la mesure où il s’agit d’un élément souvent négligé par les urbanistes et les acteurs locaux. En effet, les éléments constitutifs du paysage culturel tels que l’attachement au lieu et les réseaux sociaux, participent d’un sentiment d'appartenance (« home ») et d’une volonté, pour les résidents, de reconstruire leurs habitations, leur communauté ainsi que leur quartier. Toutefois, il faut reconnaître que ces éléments ne suffisent pas à retrouver ce qu’ils ont perdu. Ainsi, l’étude du paysage culturel permet non seulement de mieux comprendre la complexité de la résilience, mais démontre également que cette dernière est une construction sociale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La vallée du fleuve Saint-Laurent, dans l’est du Canada, est l’une des régions sismiques les plus actives dans l’est de l’Amérique du Nord et est caractérisée par de nombreux tremblements de terre intraplaques. Après la rotation rigide de la plaque tectonique, l’ajustement isostatique glaciaire est de loin la plus grande source de signal géophysique dans l’est du Canada. Les déformations et les vitesses de déformation de la croûte terrestre de cette région ont été étudiées en utilisant plus de 14 ans d’observations (9 ans en moyenne) de 112 stations GPS fonctionnant en continu. Le champ de vitesse a été obtenu à partir de séries temporelles de coordonnées GPS quotidiennes nettoyées en appliquant un modèle combiné utilisant une pondération par moindres carrés. Les vitesses ont été estimées avec des modèles de bruit qui incluent les corrélations temporelles des séries temporelles des coordonnées tridimensionnelles. Le champ de vitesse horizontale montre la rotation antihoraire de la plaque nord-américaine avec une vitesse moyenne de 16,8±0,7 mm/an dans un modèle sans rotation nette (no-net-rotation) par rapport à l’ITRF2008. Le champ de vitesse verticale confirme un soulèvement dû à l’ajustement isostatique glaciaire partout dans l’est du Canada avec un taux maximal de 13,7±1,2 mm/an et un affaissement vers le sud, principalement au nord des États-Unis, avec un taux typique de −1 à −2 mm/an et un taux minimum de −2,7±1,4 mm/an. Le comportement du bruit des séries temporelles des coordonnées GPS tridimensionnelles a été analysé en utilisant une analyse spectrale et la méthode du maximum de vraisemblance pour tester cinq modèles de bruit: loi de puissance; bruit blanc; bruit blanc et bruit de scintillation; bruit blanc et marche aléatoire; bruit blanc, bruit de scintillation et marche aléatoire. Les résultats montrent que la combinaison bruit blanc et bruit de scintillation est le meilleur modèle pour décrire la partie stochastique des séries temporelles. Les amplitudes de tous les modèles de bruit sont plus faibles dans la direction nord et plus grandes dans la direction verticale. Les amplitudes du bruit blanc sont à peu près égales à travers la zone d’étude et sont donc surpassées, dans toutes les directions, par le bruit de scintillation et de marche aléatoire. Le modèle de bruit de scintillation augmente l’incertitude des vitesses estimées par un facteur de 5 à 38 par rapport au modèle de bruit blanc. Les vitesses estimées de tous les modèles de bruit sont statistiquement cohérentes. Les paramètres estimés du pôle eulérien de rotation pour cette région sont légèrement, mais significativement, différents de la rotation globale de la plaque nord-américaine. Cette différence reflète potentiellement les contraintes locales dans cette région sismique et les contraintes causées par la différence des vitesses intraplaques entre les deux rives du fleuve Saint-Laurent. La déformation de la croûte terrestre de la région a été étudiée en utilisant la méthode de collocation par moindres carrés. Les vitesses horizontales interpolées montrent un mouvement cohérent spatialement: soit un mouvement radial vers l’extérieur pour les centres de soulèvement maximal au nord et un mouvement radial vers l’intérieur pour les centres d’affaissement maximal au sud, avec une vitesse typique de 1 à 1,6±0,4 mm/an. Cependant, ce modèle devient plus complexe près des marges des anciennes zones glaciaires. Basées selon leurs directions, les vitesses horizontales intraplaques peuvent être divisées en trois zones distinctes. Cela confirme les conclusions d’autres chercheurs sur l’existence de trois dômes de glace dans la région d’étude avant le dernier maximum glaciaire. Une corrélation spatiale est observée entre les zones de vitesses horizontales intraplaques de magnitude plus élevée et les zones sismiques le long du fleuve Saint-Laurent. Les vitesses verticales ont ensuite été interpolées pour modéliser la déformation verticale. Le modèle montre un taux de soulèvement maximal de 15,6 mm/an au sud-est de la baie d’Hudson et un taux d’affaissement typique de 1 à 2 mm/an au sud, principalement dans le nord des États-Unis. Le long du fleuve Saint-Laurent, les mouvements horizontaux et verticaux sont cohérents spatialement. Il y a un déplacement vers le sud-est d’une magnitude d’environ 1,3 mm/an et un soulèvement moyen de 3,1 mm/an par rapport à la plaque l’Amérique du Nord. Le taux de déformation verticale est d’environ 2,4 fois plus grand que le taux de déformation horizontale intraplaque. Les résultats de l’analyse de déformation montrent l’état actuel de déformation dans l’est du Canada sous la forme d’une expansion dans la partie nord (la zone se soulève) et d’une compression dans la partie sud (la zone s’affaisse). Les taux de rotation sont en moyenne de 0,011°/Ma. Nous avons observé une compression NNO-SSE avec un taux de 3.6 à 8.1 nstrain/an dans la zone sismique du Bas-Saint-Laurent. Dans la zone sismique de Charlevoix, une expansion avec un taux de 3,0 à 7,1 nstrain/an est orientée ENE-OSO. Dans la zone sismique de l’Ouest du Québec, la déformation a un mécanisme de cisaillement avec un taux de compression de 1,0 à 5,1 nstrain/an et un taux d’expansion de 1.6 à 4.1 nstrain/an. Ces mesures sont conformes, au premier ordre, avec les modèles d’ajustement isostatique glaciaire et avec la contrainte de compression horizontale maximale du projet World Stress Map, obtenue à partir de la théorie des mécanismes focaux (focal mechanism method).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Notre mémoire se penche sur un corpus de films spécifique; il s’agit des westerns américains racontant la construction d’un chemin de fer. Nous traitons ces films comme un sous-genre du western que nous intitulons Railroad Building Story. Est proposé dans notre étude que la structure narrative étant à la base de tous les récits du sous-genre provient d’une idéalisation des faits historiques entourant la construction du premier chemin de fer transcontinental aux États-Unis. Dans le premier chapitre, nous présentons une adaptation de la méthode d’analyse de Vladimir Propp, telle que présentée dans la Morphologie du conte, dans le but d’identifier la structure narrative stable des films du corpus et d’en décrire les unités narratives constantes. L’application de la méthode est effectuée dans le second chapitre, où chacune des unités narratives constantes est expliquée. De plus, nous confrontons ces unités narratives à l’histoire du chemin de fer transcontinental afin d’analyser les rapports idéologiques existant entre ces récits fictionnels et leur référent historique. Cette description sémionarrative et historique de la Railroad Building Story met en évidence sa fonction idéologique permanente en tant que mythe cinématographique du chemin de fer américain. Dans le troisième chapitre, les films sont analysés d’après leur contexte sociohistorique de production. Le chapitre est divisé selon les quatre périodes historiques dans lesquels les films du sous-genre furent réalisés, soit les années 1920, la Grande Dépression, l’ère maccarthyste et le début des années 1960. En analysant les films d’après une approche sociocritique, nous démontrons comment ceux-ci traduisent des préoccupations idéologiques liées au climat social de la nation américaine. Nous expliquons donc comment le mythe du chemin de fer américain se voit réapproprié à chaque période historique, et ce, afin de répondre aux exigences idéologiques contemporaines à la production des films de la Railroad Building Story.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Au cours des dernières décennies, la région de l’Arctique s’est vue propulsée au cœur de nombreuses analyses et controverses scientifiques, médiatiques et politiques. Avec la fonte des glaces, de nouvelles perspectives économiques et maritimes voient le jour, principalement en matière de navigation et d’exploitation des ressources naturelles, amenant les États riverains, ainsi que de nombreux autres pays du globe, à en faire une priorité en matière de politique internationale. L’intérêt de la communauté internationale s’est concrétisé principalement à partir des années 1990 – notamment avec la création du Conseil de l’Arctique en 1996 dont font partie la Russie, le Canada, les États-Unis, l’Islande, la Norvège, ainsi que certains États européens tels que la Suède, la Finlande et le Danemark. Cependant, l’Union européenne n’a manifesté une position plus proactive qu’à partir de 2008. En quelques années, Bruxelles s’est énormément mobilisée pour s’informer davantage sur la région et on a vu croître de manière considérable le nombre de rencontres, de conférences, de partages des connaissances sur les sujets arctiques. La publication d’une première communication de la Commission européenne sur la région arctique officialisa cette position plus déterminée de l’Union envers les enjeux arctiques. Cette recherche vise à étudier l’évolution et l’élaboration d’une politique européenne arctique, ainsi que les raisons et intérêts qui sous-tendent celle-ci. Il sera également question de se pencher sur les principaux obstacles rencontrés par l’Union dans ce processus et analyser les relations qu’elle entretient avec les différents États arctiques. Enfin, une mise au point de la situation actuelle sera faite afin de comprendre les divers défis et opportunités qu’elle peut rencontrer dans ce nouveau rôle d’acteur arctique.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ce mémoire de maitrise porte sur deux axes principaux : la mise en diagnostic et les enjeux que cela représente pour l’individu ainsi que la question du syndrome de stress post-traumatique (SSPT) dans une population particulière, celle des militaires français. À travers une étude de différents concepts anthropologiques tels que la sous-culture militaire, l’anthropologie du corps, de la mémoire et du discours, le travail de terrain a permis de mettre de l’avant l’expérience et l’impact du diagnostic du syndrome de stress post-traumatique. Les différentes étapes de la mise en diagnostic sont présentées afin de découvrir comment est vécue l’officialisation de ce trouble. Il est alors expliqué le paradoxe propre à ce diagnostic qui est posé, peu importe le type de choc traumatique à l’origine du SSPT. Cela permet de comprendre pourquoi le diagnostic du syndrome de stress post-traumatique reste un véritable enjeu lorsqu’il est question de la population militaire. Bien que de plus en plus de recherches existent sur le sujet au Canada ou aux États-Unis, la question en France reste encore en développement. C’est pourquoi cette recherche permet de découvrir la perception du trouble pour l’individu atteint et ses proches, la prévention et la prise en charge du stress post-traumatique à travers le diagnostic proposé actuellement.