962 resultados para Théorie des matrices aléatoires


Relevância:

100.00% 100.00%

Publicador:

Resumo:

The main purpose of this article is to highlight the need to prepare citizens so that they can become co-responsible when facing the problem of development. In the first part, the ethical guidelines of the proposal are drawn up. They do not have to be created, since a framework covering the legitimate demands of civil society has already been established by the millennium development goals and three generations of human rights. In the second part, the starting point is Sen’s theory of capabilities, and the stress is placed on the need to promote capabilities that make it possible to account for our responsibility for the problem of development. Finally, in the third part, a teaching resource is presented which raises awareness of the millennium development goals and involves them in the realisation of human rights. This educational practice prepares students to play a leading role in the process of change as well as to be part of the solution.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les fichiers video (d'animation) sont dans un format Windows Media (.wmv)

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette thèse a pour but de documenter la réorganisation des services effectuée au programme Enfants et adolescents (PEA) du Centre de réadaptation Estrie, Sherbrooke. Une démarche de recherche-action participative (RAP) est utilisée afin de collaborer au développement, à l’implantation et à l’évaluation d’un nouveau modèle de services visant à accroître l’accessibilité et la qualité des services de réadaptation offerts aux enfants ayant une déficience physique. Spécifiquement, les objectifs sont : 1) de documenter les retombées de la réorganisation des services; 2) de réaliser une analyse critique du processus de changement. Des méthodes quantitatives et qualitatives sont utilisées afin d’atteindre ces objectifs. Tout d’abord, la Mesure des processus de soins (MPOC) documente la perception de la qualité avant (2007), pendant (2008) et après (2009) l’implantation du nouveau modèle de services. Au total, cet outil est employé auprès de 222 familles et 129 intervenants. À quatre reprises, les intervenants et les gestionnaires répondent également à un questionnaire sur leurs perceptions des forces, des faiblesses, des opportunités et des menaces au PEA. En 2008 et en 2009, des focus groups et des entrevues téléphoniques sont réalisées auprès des familles (n=5), des intervenants (n=19) et des gestionnaires (n=13) afin de documenter leurs perceptions sur le processus de changement et sur les retombées de la réorganisation des services. Quant à l’observation participante, elle permet de recueillir de l’information sur le processus de réorganisation des services tout au long de ces trois années. Enfin, les informations recueillies sont analysées à l’aide de différentes approches, dont des tests statistiques et des analyses de contenu utilisant une grille de codification inspirée de la théorie des systèmes d’actions organisées. Les résultats indiquent que davantage d’enfants reçoivent des services en 2009 en comparaison à 2007. De plus, la qualité des services s’est maintenue selon les perceptions évaluées par la MPOC (article 1). L’utilisation d’interventions de groupe contribue fort probablement à augmenter le nombre d’enfants qui reçoivent des services, mais plusieurs défis doivent être adressés afin que cette modalité d’intervention soit réellement efficiente (article 2). Les résultats font ressortir que le processus de réorganisation des services est complexe. L’évaluation des forces, des faiblesses, des opportunités et des menaces d’un programme, de même que l’implication des acteurs dans le processus de développement d’un nouveau modèle de services, favorisent l’amélioration continue de la qualité (article 3). Or, les facilitateurs et les obstacles à l’implantation du nouveau modèle de services évoluent durant la réorganisation des services. Considérant cela, il est important de poser les actions nécessaires afin de soutenir le changement tout au long du processus (article 4). En résumé, cette thèse contribue à l’avancement des connaissances en réadaptation en comblant une lacune dans les écrits scientifiques. En effet, peu de projets visant le développement et l’implantation de nouveaux modèles de services sont évalués et documentés. Pourtant, des modèles tels que celui développé par le PEA semblent prometteurs afin d’améliorer l’accessibilité, et éventuellement, la qualité des services de réadaptation chez l’enfant.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dans ce mémoire, je démontre que la distribution de probabilités de l'état quantique Greenberger-Horne-Zeilinger (GHZ) sous l'action locale de mesures de von Neumann indépendantes sur chaque qubit suit une distribution qui est une combinaison convexe de deux distributions. Les coefficients de la combinaison sont reliés aux parties équatoriales des mesures et les distributions associées à ces coefficients sont reliées aux parties réelles des mesures. Une application possible du résultat est qu'il permet de scinder en deux la simulation de l'état GHZ. Simuler, en pire cas ou en moyenne, un état quantique comme GHZ avec des ressources aléatoires, partagées ou privées, et des ressources classiques de communication, ou même des ressources fantaisistes comme les boîtes non locales, est un problème important en complexité de la communication quantique. On peut penser à ce problème de simulation comme un problème où plusieurs personnes obtiennent chacune une mesure de von Neumann à appliquer sur le sous-système de l'état GHZ qu'il partage avec les autres personnes. Chaque personne ne connaît que les données décrivant sa mesure et d'aucune façon une personne ne connaît les données décrivant la mesure d'une autre personne. Chaque personne obtient un résultat aléatoire classique. La distribution conjointe de ces résultats aléatoires classiques suit la distribution de probabilités trouvée dans ce mémoire. Le but est de simuler classiquement la distribution de probabilités de l'état GHZ. Mon résultat indique une marche à suivre qui consiste d'abord à simuler les parties équatoriales des mesures pour pouvoir ensuite savoir laquelle des distributions associées aux parties réelles des mesures il faut simuler. D'autres chercheurs ont trouvé comment simuler les parties équatoriales des mesures de von Neumann avec de la communication classique dans le cas de 3 personnes, mais la simulation des parties réelles résiste encore et toujours.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Comment le motif de la marque insensible du diable a-t-il pu se frayer un chemin au sein du discours théologique, juridique et médical de la fin de la Renaissance jusqu'à s'imposer comme une pièce essentielle du crime de sorcellerie? Selon quels mécanismes et à partir de quels systèmes de croyance cette marque corporelle en est-elle venue à connaître une si large diffusion et une aussi grande acceptation tant chez les gens du livres que parmi les couches populaires? En cette époque marquée par la grande chasse aux sorcières et le développement de l'investigation scientifique, l'intérêt que les savants portent à cette étrange sémiologie constitue une porte d'accès privilégiée pour aborder de front la dynamique du déplacement des frontières que la démonologie met en oeuvre au sein des différents champs du savoir. Cette thèse a pour objectif d'étudier le réseau des mutations épistémologiques qui conditionne l'émergence de la marque du diable dans le savoir démonologique français à la charnière des XVIe et XVIIe siècles. Nous examinerons par quels cheminements l'altérité diabolique s'est peu à peu intériorisée dans le corps et l'âme des individus sous l'influence grandissante des vertus de l'empirisme, de la méthode expérimentale et de l'observation. En analysant la construction rhétorique de la théorie des marques du diable et en la reliant aux changements qui s'opèrent sur la plateforme intellectuelle de l'Ancien Régime, nous entendons éclairer la nouvelle distribution qui s'effectue entre les faits naturels et surnaturels ainsi que les modalités d'écriture pour en rendre compte.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Partant des travaux séminaux de Boole, Frege et Russell, le mémoire cherche à clarifier l‟enjeu du pluralisme logique à l‟ère de la prolifération des logiques non-classiques et des développements en informatique théorique et en théorie des preuves. Deux chapitres plus « historiques » sont à l‟ordre du jour : (1) le premier chapitre articule l‟absolutisme de Frege et Russell en prenant soin de montrer comment il exclut la possibilité d‟envisager des structures et des logiques alternatives; (2) le quatrième chapitre expose le chemin qui mena Carnap à l‟adoption de la méthode syntaxique et du principe de tolérance, pour ensuite dégager l‟instrumentalisme carnapien en philosophie de la Logique et des mathématiques. Passant par l‟analyse d‟une interprétation intuitive de la logique linéaire, le deuxième chapitre se tourne ensuite vers l‟établissement d‟une forme logico-mathématique de pluralisme logique à l‟aide de la théorie des relations d‟ordre et la théorie des catégories. Le troisième chapitre délimite le terrain de jeu des positions entourant le débat entre monisme et pluralisme puis offre un argument contre la thèse qui veut que le conflit entre logiques rivales soit apparent, le tout grâce à l‟utilisation du point de vue des logiques sous-structurelles. Enfin, le cinquième chapitre démontre que chacune des trois grandes approches au concept de conséquence logique (modèle-théorétique, preuve-théorétique et dialogique) forme un cadre suffisamment général pour établir un pluralisme. Bref, le mémoire est une défense du pluralisme logique.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Neuf maladies neurodégénératives sont le produit de l’expression de gènes mutés, dans lesquels le codon CAG est répété au-delà d’un seuil pathologique. Ceci produit des protéines mutantes dans lesquelles sont insérés des segments de polyglutamines (polyGln), qui perdent leur activité et acquièrent une nouvelle fonction, ce qui est toxique pour le neurone. Ces altérations sont attribuables aux propriétés particulières de la polyGln. En effet, ces dernières possèdent la capacité de s’assembler pour former des corps d’inclusion intracellulaires. Cette propension à l’agrégation de la polyGln rend difficile l’étude de ces pathologies. C’est ainsi que l’utilisation de peptides peut s’avérer une approche avantageuse. Toutefois, la synthèse de polyGln est associée à de nombreuses délétions et nécessite l’ajout de groupements chargés afin de permettre leur purification. Cependant, ce prérequis donne lieu à des interactions électrostatiques qui biaisent la structure et la cinétique d’agrégation de ces peptides, en plus d’interférer avec l’évaluation d’éventuels agents thérapeutiques. L’objectif du projet est de développer un système permettant l’étude de la polyGln en s’affranchissant des effets de charges. Pour ce faire, deux approches ont été explorées, la première utilise la polyGln non chargée et la seconde utilise une structure polyGln-morpholine ayant des charges labiles en fonction du pH. Ces peptides ont été produits en utilisant une approche linéaire de synthèse peptidique sur support solide avec protection maximale des chaînes latérales. La purification a été effectuée par chromatographie de haute performance en phase inverse en milieu acide. Ces stratégies ont permis de produire des peptides de polyGln de grande pureté avec des rendements acceptables. Une procédure de solubilisation des peptides alliant sonication et lyophilisation a été développée afin d’étudier chacun de ces peptides à l’aide de diverses techniques physicochimiques, telles que la diffusion de la lumière, la spectroscopie de résonance magnétique nucléaire, Raman et UV-visible, le dichroïsme circulaire et la microscopie optique polarisée. La polyGln non chargée solubilisée dans le trifluoroéthanol-eau a montré que la taille des particules et la vitesse d’agrégation sont proportionnelles à la fraction volumique en eau. De plus, la structure secondaire en solution est à prédominance alpha et semble être peu sensible à la fraction d’eau jusqu’à un certain seuil (25%) après lequel la structure aléatoire prédomine. L’analyse des agrégats à l’état solide montre des structures hélicoïdales > aléatoires et ont les caractéristiques des fibrilles amyloïdes. Le peptide de polyGln-morpholines a un pKa de 7,3 en milieu aqueux. Il demeure en solution lorsque le pH < pKa et à faible force ionique, alors qu’il s’autoassemble lorsque ces conditions ne sont pas respectées. Ceci suggère que la répulsion électrostatique est responsable de la stabilisation du peptide en solution. La dimension fractale nous indique que le peptide forme des agrégats compacts dont les constituants ont une taille de 2,5 nm, compatibles avec une conformation aléatoire compacte, en coude bêta ou hélicoïdale. Ceci est en accord avec l’étude structurale des peptides en solution qui a montré des espèces aléatoires > bêta > alpha. De plus, en RMN, l’élargissement des signaux du 1Hγ en cours d’agrégation suggère une interaction via les chaînes latérales. Les analyses en phase solide ont plutôt montré une prédominance de structures bêta et alpha. L’inhibition de l’agrégation à pH 8 varie selon rouge de Congo > tréhalose, alors que le peptide liant la polyGln 1 et la thioflavine T ne semble pas avoir d’effet. Ces approches ont donc permis pour la première fois de s’affranchir des effets de charges auparavant inhérents à l’étude de la polyGln en solution et par conséquent d’obtenir des informations inédites quant à la solubilité, la structure et la cinétique d’agrégation. Enfin, le dispositif à charges labiles permet d’évaluer l’efficacité d’éventuels agents thérapeutiques à pH quasi physiologique.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le Sénégal est confronté à plusieurs enjeux environnementaux accentués par l’exode rural, la croissance démographique et l’urbanisation galopante. Dans la capitale de Dakar, les populations sont exposées à des risques industriels, sanitaires et environnementaux importants. Face aux conséquences néfastes des phénomènes de la dégradation de l’environnement en milieu urbain, il convient de chercher à mieux comprendre ce que l’environnement représente pour les populations notamment chez la jeune génération qui aura à vivre avec les conséquences liées à la détérioration de l'environnement léguée par les générations précédentes. S’appuyant sur la théorie des représentations sociales, cette recherche a comme objectifs 1) d’explorer les représentations sociales de l’environnement chez les jeunes sénégalais âgés de 9 à 16 ans en milieu scolaire situé en milieu urbain, et ce, dans différentes écoles de la ville de Dakar ; 2) d’étudier les connaissances, les sensibilités et les comportements des jeunes en matière écologique et environnementale; 3) finalement de déterminer les principaux agents responsables de la socialisation des jeunes dakarois en matière d’environnement. Le tout analysé en fonction de trois variables soit l’âge, le genre et le type d’école. La méthodologie de notre recherche est essentiellement qualitative de type exploratoire et elle s’appui principalement sur des questionnaires et des dessins. Les résultats montrent qu’en ce qui concerne les représentations sociales de l’environnement des jeunes dakarois, à travers l’analyse du discours, que l’environnement est représenté par les catégories typologiques dites « négative » « utilitariste » et « milieu de vie ». Ces représentations sociales varient à divers degrés en fonction du groupe d’âge, du genre et du type d’école. Les jeunes sont également nombreux à utiliser un vocabulaire associé aux notions liées à l’environnement naturel. De son côté, l’analyse picturale, qui concorde avec l’analyse lexicale, montre que les catégories typologiques de l’environnement sont liées au « milieu de vie », à l’« environnement ressource » et à l’« environnement nature » et ce, peu importe l’âge, le type d’école et le genre.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette étude avait pour but de vérifier l’incidence de la relation maître-élève sur la motivation des élèves particulièrement en milieux défavorisés. Notre hypothèse stipulait que meilleure est la relation maître-élève, plus grande est la motivation de l’élève. Nos objectifs étaient d’analyser la valeur prédictive de la relation maître-élève sur les déterminants de la motivation scolaire afin d’identifier quels aspects de la relation maître-élève, dans une perspective d’attachement (chaleur, soutien ou conflit), prédisent le mieux chacune des variables motivationnelles retenues. Aussi, nous voulions identifier quelles variables motivationnelles sont les plus affectées par la qualité de la relation maître-élève. La motivation scolaire a été évaluée à deux niveaux soit général et spécifique au français et aux mathématiques. Certains des déterminants retenus sont en lien avec les modèles Attentes-Valeur (le sentiment de compétence, l’intérêt et la perception de l’utilité de l’école en général ainsi qu’en français et en mathématiques). Les autres déterminants retenus sont en lien avec la théorie des buts d’accomplissement (le but de maîtrise, le but de performance et le but d’évitement du travail). Nous avons aussi vérifié l’effet modérateur du sexe dans les relations entre les variables d’attachement et la motivation. Nos résultats montrent que la relation maître-élève prédit avec assurance l’intérêt général envers l’école, l’intérêt spécifique au français et aux mathématiques ainsi que la présence de buts d’évitement du travail. Nous avons aussi été en mesure de déterminer qu’une relation soutenante serait l’aspect de la relation maître-élève qui prédirait la présence du plus grand nombre de déterminants de la motivation scolaire. Il a aussi été surprenant de constater l’effet de la relation chaleureuse sur les trois dimensions en lien avec l’intérêt (général, en français et en mathématiques). De son côté, l’intérêt général fut aussi remarqué comme étant le déterminant motivationnel étant le mieux prédit par la relation maître-élève. Nous avons aussi fait ressortir que la perception de conflit serait l’aspect de la relation maître-élève qui présenterait la plus grande valeur prédictive de certains déterminants de la motivation. Par contre, nos résultats ne permettent pas de supporter que le sexe de l’élève a un effet modérateur dans les relations.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le présent mémoire traite de la description du LaOFeAs, le premier matériau découvert de la famille des pnictures de fer, par la théorie de la fonctionnelle de la densité (DFT). Plus particulièrement, nous allons exposer l’état actuel de la recherche concernant ce matériau avant d’introduire rapidement la DFT. Ensuite, nous allons regarder comment se comparent les paramètres structuraux que nous allons calculer sous différentes phases par rapport aux résultats expérimentaux et avec les autres calculs DFT dans la littérature. Nous allons aussi étudier en détails la structure électronique du matériau sous ses différentes phases magnétiques et structurales. Nous emploierons donc les outils normalement utilisés pour mieux comprendre la structure électronique : structures de bandes, densités d’états, surfaces de Fermi, nesting au niveau de Fermi. Nous tirerons profit de la théorie des groupes afin de trouver les modes phononiques permis par la symétrie de notre cristal. De plus, nous étudierons le couplage électrons-phonons pour quelques modes. Enfin, nous regarderons l’effet de différentes fonctionnelles sur nos résultats pour voir à quel point ceux-ci sont sensibles à ce choix. Ainsi, nous utiliserons la LDA et la PBE, mais aussi la LDA+U et la PBE+U.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ce mémoire se penche sur l’expérience urbaine dans les recueils de poèmes Kaléidoscope ou Les aléas du corps grave et Trivialités de Michel Beaulieu. L’objectif de cette étude est d’analyser comment la ville contribue à orienter Beaulieu vers le récit au sein même du poème et produit de ce fait une hétérogénéité générique dans ses recueils. Le premier chapitre montre que, dans Kaléidoscope, le sujet parvient à transformer son rapport à la ville natale, Montréal, en élaborant une véritable poétique du regard qui lui permet de faire l’expérience d’une temporalité kaléidoscopique, laquelle engendre du récit dans le poème. Le second chapitre analyse, dans Trivialités, le parcours mental qu’effectue le sujet poétique dans sa ville natale dans le but de mettre en récit les événements marquants de sa vie. À partir de la théorie de l’énonciation, le dernier chapitre étudie les modalités du récit dans les deux recueils de Beaulieu et montre que la cohabitation des régimes d’énonciation du « discours » et du « récit » oblige à reconsidérer la nature du sujet qui s’énonce dans le recueil en repoussant les frontières entre autobiographie et lyrisme.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette étude examine comment différents textes du XVIIIe siècle traitent du roman. L’hypothèse est la suivante : le genre choisi pour parler du roman participe de manière intrinsèque à la critique ou à l’apologie véhiculée dans l’œuvre. Le corpus est composé de quatre textes plus ou moins (re)connus par les historiens de la littérature narrative : De l’Usage des romans (1734) de Lenglet-Dufresnoy, le Voyage merveilleux du Prince Fan-Férédin dans la Romancie (1735) du père Bougeant, De Libris qui vulgò dicuntur Romanenses (1736) du père Porée et les Entretiens sur les romans (1755) du père Jacquin. À l’aide d’une méthode hybride d’analyse générique et d’analyse rhétorique du discours, cette étude s’intéresse aux genres employés par les auteurs du corpus (le traité, le roman, le discours académique et l’entretien) de même qu’à trois thématiques argumentatives reliées au roman (le poison, l’amour et la femme).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La présente thèse expose, analyse et critique les positions classiques et modernes à l’égard de la nature et des causes de la faiblesse de volonté. L’identification du problème par Platon et Aristote a donné lieu à l’explicitation de principes et propositions portant sur la rationalité pratique en général et la motivation en particulier. Une discussion de ces principes et propositions est faite dans la mesure où ils ont conservé une certaine pertinence pour les théories modernes. Ce qui est devenu la conception standard de la stricte akrasie ainsi que son caractère prétendument paradoxal sont mis de l’avant. Nous argumentons qu’une position sceptique à l’égard de la stricte akrasie ne peut pas reposer sur une version ou une autre de la théorie des préférences révélées et montrons qu’une description du processus décisionnel est nécessaire pour attribuer une préférence synthétique ou un meilleur jugement. Nous abordons le débat philosophique qui oppose une conception internaliste du lien entre le meilleur jugement et la décision à une conception externaliste, et soutenons, sur la base de résultats expérimentaux en psychologie cognitive et en neuroscience, que cette dernière conception est plus robuste, bien qu’imparfaite. Ces résultats ne vont pas toutefois à l’encontre de l’hypothèse que les agents sont des maximisateurs dans la satisfaction de leur préférence, laquelle hypothèse continue de justifier une forme de scepticisme à l’égard de la stricte akrasie. Nous exposons, par contre, des arguments solides à l’encontre de cette hypothèse et montrons pourquoi la maximisation n’est pas nécessairement requise pour le choix rationnel et que nous devons, par conséquent, réviser la conception standard de la stricte akrasie. Nous discutons de l’influente théorie de Richard Holton sur la faiblesse de volonté non strictement akratique. Bien que compatible avec une conception non maximisante, sa théorie réduit trop les épisodes de faiblesse de volonté à des cas d’irrésolution. Nous exposons finalement la théorie du choix intertemporel. Cette théorie est plus puissante parce qu’elle décrit et explique, à partir d’un même schème conceptuel, autant la stricte akrasie que l’akrasie tout court. Ce schème concerne les propriétés des distributions temporelles des conséquences des décisions akratiques et les attitudes prospectives qui motivent les agents à les prendre. La structure de ces distributions, couplée à la dévaluation à l’égard du futur, permet également d’expliquer de manière simple et élégante pourquoi la faiblesse de volonté est irrationnelle. Nous discutons de l’hypothèse qu’une préférence temporelle pure est à la source d’une telle dévaluation et mentionnons quelques éléments critiques et hypothèses concurrentes plus conformes à une approche cognitiviste du problème.