981 resultados para Crane, Charles Richard (1858-1939) -- Résidences et lieux familiers -- Massachusetts (États-Unis)
Resumo:
Mode of access: Internet.
Resumo:
Está publicado en partes con diferentes títs.
Resumo:
Mode of access: Internet.
Resumo:
Sabin 4188.
Resumo:
Mode of access: Internet.
Resumo:
Advertisements on p. 451-452 at end.
Resumo:
Goldsmiths'-Kress no. 14615.3-1, suppl.
Resumo:
Mode of access: Internet.
Resumo:
Mode of access: Internet.
Resumo:
Des recherches au Québec (Garon, 2009), en France (Donnat, 2011) et aux États-Unis (Kolb, 2001) confirment un état de fait général: le vieillissement du public de la musique classique. Si le public du répertoire est reconnu pour posséder un haut niveau d’études, pourquoi les étudiants universitaires de nos jours ne sont-ils pas plus présents dans les salles de concert ? Cette étude explore cette problématique d’abord par une recherche historique et par des entrevues auprès de certains des organismes de musique classique à Montréal, et ce afin de comprendre leurs stratégies de développement des publics concernés de 2004 à 2014. Ensuite, par un sondage auprès de 555 étudiants universitaires de la ville, pour faire un portrait de leur relation avec la musique à l’heure actuelle. Notre analyse, appuyée par une bibliographie en sociomusicologie et en sociologie des pratiques culturelles, confirme des tendances comme celle de l’«omnivorisme culturel» et l’éclectisme musical des jeunes universitaires. Elle nous montre aussi une réception positive des œuvres classiques, quoiqu’incompatible avec les critères esthétiques des genres musicaux favoris. À partir de ce paradoxe, nous étudions la force des motivations extramusicales qui les amènent aux concerts, leurs formats préférés, l’impact de l’éducation musicale, l’influence des parents, de l’internet, des nouvelles technologies. Finalement, nous constatons le nombre peu élevé d’initiatives des organismes musicaux dans le milieu universitaire à Montréal qui, pourtant, se montre un bassin au grand potentiel pour le renouvellement des publics de la musique classique.
Resumo:
Jusqu’à son suicide dans la nuit du 12 au 13 mars 1990, à l’âge de 86 ans, Bruno Bettelheim a marqué l’histoire de la psychologie. Dix-sept ouvrages, dont quatre écrits en collaboration, constituent, pour l’essentiel, sa contribution originale au traitement de l’autisme infantile : une thérapie de milieu, entièrement fondée sur les travaux de Freud. Certains n’hésitent pas, d’ailleurs, à le considérer comme un pionnier de l’histoire de la psychanalyse. Après sa mort, cependant, les langues se délient. D’anciens pensionnaires de l’école orthogénique de Chicago racontent que Bettelheim les battait, témoignages corroborés par d’anciens membres du personnel. Des proches collaborateurs ont même affirmé que Bettelheim mentait tout le temps, mensonges qui ont contribué à créer « le mythe Bettelheim », bien décrit dans l’ouvrage de Pollak (1997/2003), Bruno Bettelheim ou la fabrication d’un mythe. L’objectif de ce texte n’est pas d’aborder l’ensemble des reproches adressés à Bettelheim et à son oeuvre, mais d’examiner les failles de son fameux ouvrage Psychanalyse des contes de fées (Bettelheim, 1976). Salué par deux prix en 1977 (National Book Critics Circle Award et National Book Award), Psychanalyse des contes de fées reste, sans conteste, le plus grand succès populaire de tous ses ouvrages, tant aux États-Unis d’Amérique que dans les pays francophones. En 1995, la New York Public Library plaçait l’ouvrage parmi les 159 « livres du siècle », en dépit des quelques critiques dévastatrices parues dès sa sortie (Arthur, 1978 ; Blos, 1978 ; Heisig, 1977 ; Lurie, 1976 ; Zipes, 1979), dont une accusation de plagiat, laquelle accusation réapparaîtra après sa mort (Dundes, 1991b ; Pollak, 1997/2003). Nous présenterons, d’abord, le point de vue de Bettelheim, quant aux bienfaits, pour les enfants, de s’entendre raconter, par un adulte, les contes de fées. Nous verrons alors, à notre grande surprise, que la valeur qu’il leur accorde, en utilisant une grille psychanalytique, est non seulement largement exagérée, mais contraire aux données empiriques et historiques. Le recours de Bettelheim à la notion du complexe d’OEdipe, largement commentée dans son ouvrage, servira d’exemple. Nous discuterons brièvement, ensuite, du silence de Bettelheim sur les auteurs qui ont écrit sur le sujet et de l’accusation de plagiat portée contre lui.
Resumo:
Jusqu’à son suicide dans la nuit du 12 au 13 mars 1990, à l’âge de 86 ans, Bruno Bettelheim a marqué l’histoire de la psychologie. Dix-sept ouvrages, dont quatre écrits en collaboration, constituent, pour l’essentiel, sa contribution originale au traitement de l’autisme infantile : une thérapie de milieu, entièrement fondée sur les travaux de Freud. Certains n’hésitent pas, d’ailleurs, à le considérer comme un pionnier de l’histoire de la psychanalyse. Après sa mort, cependant, les langues se délient. D’anciens pensionnaires de l’école orthogénique de Chicago racontent que Bettelheim les battait, témoignages corroborés par d’anciens membres du personnel. Des proches collaborateurs ont même affirmé que Bettelheim mentait tout le temps, mensonges qui ont contribué à créer « le mythe Bettelheim », bien décrit dans l’ouvrage de Pollak (1997/2003), Bruno Bettelheim ou la fabrication d’un mythe. L’objectif de ce texte n’est pas d’aborder l’ensemble des reproches adressés à Bettelheim et à son oeuvre, mais d’examiner les failles de son fameux ouvrage Psychanalyse des contes de fées (Bettelheim, 1976). Salué par deux prix en 1977 (National Book Critics Circle Award et National Book Award), Psychanalyse des contes de fées reste, sans conteste, le plus grand succès populaire de tous ses ouvrages, tant aux États-Unis d’Amérique que dans les pays francophones. En 1995, la New York Public Library plaçait l’ouvrage parmi les 159 « livres du siècle », en dépit des quelques critiques dévastatrices parues dès sa sortie (Arthur, 1978 ; Blos, 1978 ; Heisig, 1977 ; Lurie, 1976 ; Zipes, 1979), dont une accusation de plagiat, laquelle accusation réapparaîtra après sa mort (Dundes, 1991b ; Pollak, 1997/2003). Nous présenterons, d’abord, le point de vue de Bettelheim, quant aux bienfaits, pour les enfants, de s’entendre raconter, par un adulte, les contes de fées. Nous verrons alors, à notre grande surprise, que la valeur qu’il leur accorde, en utilisant une grille psychanalytique, est non seulement largement exagérée, mais contraire aux données empiriques et historiques. Le recours de Bettelheim à la notion du complexe d’OEdipe, largement commentée dans son ouvrage, servira d’exemple. Nous discuterons brièvement, ensuite, du silence de Bettelheim sur les auteurs qui ont écrit sur le sujet et de l’accusation de plagiat portée contre lui.
Resumo:
Cette thèse développe des méthodes bootstrap pour les modèles à facteurs qui sont couram- ment utilisés pour générer des prévisions depuis l'article pionnier de Stock et Watson (2002) sur les indices de diffusion. Ces modèles tolèrent l'inclusion d'un grand nombre de variables macroéconomiques et financières comme prédicteurs, une caractéristique utile pour inclure di- verses informations disponibles aux agents économiques. Ma thèse propose donc des outils éco- nométriques qui améliorent l'inférence dans les modèles à facteurs utilisant des facteurs latents extraits d'un large panel de prédicteurs observés. Il est subdivisé en trois chapitres complémen- taires dont les deux premiers en collaboration avec Sílvia Gonçalves et Benoit Perron. Dans le premier article, nous étudions comment les méthodes bootstrap peuvent être utilisées pour faire de l'inférence dans les modèles de prévision pour un horizon de h périodes dans le futur. Pour ce faire, il examine l'inférence bootstrap dans un contexte de régression augmentée de facteurs où les erreurs pourraient être autocorrélées. Il généralise les résultats de Gonçalves et Perron (2014) et propose puis justifie deux approches basées sur les résidus : le block wild bootstrap et le dependent wild bootstrap. Nos simulations montrent une amélioration des taux de couverture des intervalles de confiance des coefficients estimés en utilisant ces approches comparativement à la théorie asymptotique et au wild bootstrap en présence de corrélation sérielle dans les erreurs de régression. Le deuxième chapitre propose des méthodes bootstrap pour la construction des intervalles de prévision permettant de relâcher l'hypothèse de normalité des innovations. Nous y propo- sons des intervalles de prédiction bootstrap pour une observation h périodes dans le futur et sa moyenne conditionnelle. Nous supposons que ces prévisions sont faites en utilisant un ensemble de facteurs extraits d'un large panel de variables. Parce que nous traitons ces facteurs comme latents, nos prévisions dépendent à la fois des facteurs estimés et les coefficients de régres- sion estimés. Sous des conditions de régularité, Bai et Ng (2006) ont proposé la construction d'intervalles asymptotiques sous l'hypothèse de Gaussianité des innovations. Le bootstrap nous permet de relâcher cette hypothèse et de construire des intervalles de prédiction valides sous des hypothèses plus générales. En outre, même en supposant la Gaussianité, le bootstrap conduit à des intervalles plus précis dans les cas où la dimension transversale est relativement faible car il prend en considération le biais de l'estimateur des moindres carrés ordinaires comme le montre une étude récente de Gonçalves et Perron (2014). Dans le troisième chapitre, nous suggérons des procédures de sélection convergentes pour les regressions augmentées de facteurs en échantillons finis. Nous démontrons premièrement que la méthode de validation croisée usuelle est non-convergente mais que sa généralisation, la validation croisée «leave-d-out» sélectionne le plus petit ensemble de facteurs estimés pour l'espace généré par les vraies facteurs. Le deuxième critère dont nous montrons également la validité généralise l'approximation bootstrap de Shao (1996) pour les regressions augmentées de facteurs. Les simulations montrent une amélioration de la probabilité de sélectionner par- cimonieusement les facteurs estimés comparativement aux méthodes de sélection disponibles. L'application empirique revisite la relation entre les facteurs macroéconomiques et financiers, et l'excès de rendement sur le marché boursier américain. Parmi les facteurs estimés à partir d'un large panel de données macroéconomiques et financières des États Unis, les facteurs fortement correlés aux écarts de taux d'intérêt et les facteurs de Fama-French ont un bon pouvoir prédictif pour les excès de rendement.
Resumo:
Le but de cette recherche est d’évaluer l’importance du paysage culturel dans la résilience des communautés urbaines post-catastrophes. Ce travail se concentre sur le quartier du Lower Ninth Ward dans la ville de La Nouvelle-Orléans (États-Unis) après le passage de l’ouragan Katrina en 2005. Les catastrophes naturelles prennent une envergure et causent des dommages considérables lorsqu’elles touchent des villes. La reconstruction post -désastre est donc très dispendieuse pour les villes et les gouvernements, d’autant que certaines régions sont dévastées au point qu’elles doivent être reconstruites au complet. Cependant, le coût le plus lourd à assumer reste celui en vies humaines et si rebâtir les éléments concrets d’une ville est une tâche difficile à entreprendre, reconstruire une communauté est considérablement plus complexe. Dans le but de comprendre une telle démarche, cette recherche se concentre sur les éléments intangibles, comme l’attachement au lieu et les réseaux sociaux, dont une communauté a besoin pour se reconstituer de façon durable et résiliente. Le concept de résilience est très contesté dans la littérature et plusieurs chercheurs se sont essayés à le mesurer. Cette recherche adopte une perspective critique sur le concept et le revisite d’un point de vue holistique pour mettre en lumière sa complexité. Cette démarche permet de remettre en question l’importance de mesurer un concept finalement en perpétuelle redéfinition dans le temps et selon les échelles géographiques. De plus, en établissant une relation entre résilience et paysage culturel, il a été possible de mieux comprendre la complexité de la résilience. Touchant à plusieurs disciplines (architecture de paysage, urbanisme et sociologie), cette recherche utilise une méthodologie qui reflète son aspect multidisciplinaire : les méthodes mixtes. Ces dernières permettent la collecte de données quantitatives et qualitatives qui produisent une vue globale de la situation post-Katrina à travers le regroupement de recensions statistiques, d’observations de terrain et d’articles de journaux. Parallèlement, des entretiens ont été réalisés avec des résidents du quartier ainsi qu’avec des professionnels pour mieux comprendre les différents points de vue. Cette méthodologie a permis de produire des résultats au niveau du cas d’étude autant qu’au niveau théorique. La recherche valide l’importance de prendre en compte le paysage culturel dans les situations post-catastrophes, (en particulier) dans la mesure où il s’agit d’un élément souvent négligé par les urbanistes et les acteurs locaux. En effet, les éléments constitutifs du paysage culturel tels que l’attachement au lieu et les réseaux sociaux, participent d’un sentiment d'appartenance (« home ») et d’une volonté, pour les résidents, de reconstruire leurs habitations, leur communauté ainsi que leur quartier. Toutefois, il faut reconnaître que ces éléments ne suffisent pas à retrouver ce qu’ils ont perdu. Ainsi, l’étude du paysage culturel permet non seulement de mieux comprendre la complexité de la résilience, mais démontre également que cette dernière est une construction sociale.
Resumo:
La vallée du fleuve Saint-Laurent, dans l’est du Canada, est l’une des régions sismiques les plus actives dans l’est de l’Amérique du Nord et est caractérisée par de nombreux tremblements de terre intraplaques. Après la rotation rigide de la plaque tectonique, l’ajustement isostatique glaciaire est de loin la plus grande source de signal géophysique dans l’est du Canada. Les déformations et les vitesses de déformation de la croûte terrestre de cette région ont été étudiées en utilisant plus de 14 ans d’observations (9 ans en moyenne) de 112 stations GPS fonctionnant en continu. Le champ de vitesse a été obtenu à partir de séries temporelles de coordonnées GPS quotidiennes nettoyées en appliquant un modèle combiné utilisant une pondération par moindres carrés. Les vitesses ont été estimées avec des modèles de bruit qui incluent les corrélations temporelles des séries temporelles des coordonnées tridimensionnelles. Le champ de vitesse horizontale montre la rotation antihoraire de la plaque nord-américaine avec une vitesse moyenne de 16,8±0,7 mm/an dans un modèle sans rotation nette (no-net-rotation) par rapport à l’ITRF2008. Le champ de vitesse verticale confirme un soulèvement dû à l’ajustement isostatique glaciaire partout dans l’est du Canada avec un taux maximal de 13,7±1,2 mm/an et un affaissement vers le sud, principalement au nord des États-Unis, avec un taux typique de −1 à −2 mm/an et un taux minimum de −2,7±1,4 mm/an. Le comportement du bruit des séries temporelles des coordonnées GPS tridimensionnelles a été analysé en utilisant une analyse spectrale et la méthode du maximum de vraisemblance pour tester cinq modèles de bruit: loi de puissance; bruit blanc; bruit blanc et bruit de scintillation; bruit blanc et marche aléatoire; bruit blanc, bruit de scintillation et marche aléatoire. Les résultats montrent que la combinaison bruit blanc et bruit de scintillation est le meilleur modèle pour décrire la partie stochastique des séries temporelles. Les amplitudes de tous les modèles de bruit sont plus faibles dans la direction nord et plus grandes dans la direction verticale. Les amplitudes du bruit blanc sont à peu près égales à travers la zone d’étude et sont donc surpassées, dans toutes les directions, par le bruit de scintillation et de marche aléatoire. Le modèle de bruit de scintillation augmente l’incertitude des vitesses estimées par un facteur de 5 à 38 par rapport au modèle de bruit blanc. Les vitesses estimées de tous les modèles de bruit sont statistiquement cohérentes. Les paramètres estimés du pôle eulérien de rotation pour cette région sont légèrement, mais significativement, différents de la rotation globale de la plaque nord-américaine. Cette différence reflète potentiellement les contraintes locales dans cette région sismique et les contraintes causées par la différence des vitesses intraplaques entre les deux rives du fleuve Saint-Laurent. La déformation de la croûte terrestre de la région a été étudiée en utilisant la méthode de collocation par moindres carrés. Les vitesses horizontales interpolées montrent un mouvement cohérent spatialement: soit un mouvement radial vers l’extérieur pour les centres de soulèvement maximal au nord et un mouvement radial vers l’intérieur pour les centres d’affaissement maximal au sud, avec une vitesse typique de 1 à 1,6±0,4 mm/an. Cependant, ce modèle devient plus complexe près des marges des anciennes zones glaciaires. Basées selon leurs directions, les vitesses horizontales intraplaques peuvent être divisées en trois zones distinctes. Cela confirme les conclusions d’autres chercheurs sur l’existence de trois dômes de glace dans la région d’étude avant le dernier maximum glaciaire. Une corrélation spatiale est observée entre les zones de vitesses horizontales intraplaques de magnitude plus élevée et les zones sismiques le long du fleuve Saint-Laurent. Les vitesses verticales ont ensuite été interpolées pour modéliser la déformation verticale. Le modèle montre un taux de soulèvement maximal de 15,6 mm/an au sud-est de la baie d’Hudson et un taux d’affaissement typique de 1 à 2 mm/an au sud, principalement dans le nord des États-Unis. Le long du fleuve Saint-Laurent, les mouvements horizontaux et verticaux sont cohérents spatialement. Il y a un déplacement vers le sud-est d’une magnitude d’environ 1,3 mm/an et un soulèvement moyen de 3,1 mm/an par rapport à la plaque l’Amérique du Nord. Le taux de déformation verticale est d’environ 2,4 fois plus grand que le taux de déformation horizontale intraplaque. Les résultats de l’analyse de déformation montrent l’état actuel de déformation dans l’est du Canada sous la forme d’une expansion dans la partie nord (la zone se soulève) et d’une compression dans la partie sud (la zone s’affaisse). Les taux de rotation sont en moyenne de 0,011°/Ma. Nous avons observé une compression NNO-SSE avec un taux de 3.6 à 8.1 nstrain/an dans la zone sismique du Bas-Saint-Laurent. Dans la zone sismique de Charlevoix, une expansion avec un taux de 3,0 à 7,1 nstrain/an est orientée ENE-OSO. Dans la zone sismique de l’Ouest du Québec, la déformation a un mécanisme de cisaillement avec un taux de compression de 1,0 à 5,1 nstrain/an et un taux d’expansion de 1.6 à 4.1 nstrain/an. Ces mesures sont conformes, au premier ordre, avec les modèles d’ajustement isostatique glaciaire et avec la contrainte de compression horizontale maximale du projet World Stress Map, obtenue à partir de la théorie des mécanismes focaux (focal mechanism method).