992 resultados para théorie asymptotique
Resumo:
L’étude de l’orientation mentale (OM), soit l’habileté des parents à concevoir et à traiter leur enfant comme un individu disposant d’une vie mentale autonome et active (Meins, 1997), a gagné en intérêt grâce à la démonstration de ses associations avec plusieurs sphères du développement de l’enfant, entre autres avec le style d’acquisition linguistique chez les enfants de 20 mois ainsi que le développement de la théorie de l’esprit chez les enfants d’âge préscolaire (p. ex., Meins & Fernyhough, 1999). En dépit de ces résultats, l’étude du développement du vocabulaire et des stades initiaux de la théorie de l’esprit chez les enfants a été négligée dans cette littérature. La présente thèse est composée de trois articles empiriques et vise à combler certaines lacunes de la littérature actuelle. Le premier article vise à examiner les liens longitudinaux entre l’OM maternelle et le vocabulaire expressif chez les enfants de 2 ans. Les deuxième et troisième articles ont pour but d’évaluer les relations longitudinales entre l’OM maternelle, la sécurité d’attachement des enfants et les toutes premières articulations de la théorie de l’esprit chez les enfants de 2 ans, puis 2 ans plus tard, avec la théorie de l’esprit chez les enfants de 4 ans. Les données des trois articles proviennent de cinq visites effectuées au domicile de 84 dyades mère-enfant. À 12 mois, l’OM maternelle a été mesurée lors de jeux libres mère-enfant à l’aide du système de codification de Meins et al. (2001). À 15 mois, la sécurité d’attachement de l’enfant a été mesurée par un observateur avec le Q-Sort d’attachement (Waters & Deane, 1985). À 2 ans, les mères ont évalué le langage de leur enfant à l’aide des inventaires MacArthur du développement de la communication (Dionne, Tremblay, Boivin, Laplante, & Pérusse, 2003). Finalement, la théorie de l’esprit de l’enfant a été mesurée à 2 et 4 ans à l’aide de diverses tâches expérimentales (Carlson, Mandell, & Williams, 2004). Les résultats du premier article indiquent que l’OM maternelle est associée au développement du vocabulaire expressif des enfants de 2 ans. Les résultats des deuxième et troisième articles indiquent que la compréhension des enfants de 2 et 4 ans aux tâches de théorie de l’esprit est associée à l’OM maternelle. De plus, ces deux articles ont démontré que les garçons, mais pas les filles, présentant des comportements d’attachement davantage sécures ont obtenu de meilleures performances à une tâche demandant la compréhension des perspectives visuelles de leur mère à 2 ans et de celles d’une étrangère à 4 ans. En conclusion, les résultats de la thèse suggèrent que l’utilisation que les mères font de commentaires mentaux à 12 mois semble favoriser l’acquisition de mots dans le vocabulaire expressif de leur enfant à 2 ans ainsi que le développement d’une meilleure compréhension aux tâches de théorie de l’esprit à 2 et 4 ans.
Resumo:
Travail dirigé présenté à la Faculté des sciences infirmières en vue de l’obtention de la maîtrise en sciences infirmières option expertise-conseil en soins infirmiers
Resumo:
La présente étude propose une analyse historique de la légende urbaine des snuff movies. En premier lieu, elle se penche sur l’émergence de cette rumeur dans le paysage médiatique américain des années 70 tout en focalisant sur certains objets filmiques l’ayant crédibilisée, principalement les stag et les mondo movies. Ce mémoire analyse par la suite l’influence majeure de deux événements sur l’implantation de la légende urbaine dans l’imaginaire collectif, soit l’assassinat de Sharon Tate et la circulation du film de Zapruder. Après avoir étudié la persistance de la rumeur, cet essai focalise sur la promotion et l’exploitation de Snuff (1976) en plus de proposer une analyse de ce long métrage. Ensuite, il se penche sur deux types de représentations du snuff dans le cinéma de fiction ainsi que leurs impacts sur l’authentification de la légende urbaine. Il est d’abord question des mises en scène du snuff dans le cinéma populaire qui s’inspirent de la rumeur pour ensuite l’actualiser. Sont ensuite étudiées les représentations du snuff à titre de faux documents, soit ces œuvres qui tentent par divers procédés de se faire passer pour de véritables films clandestins et, de ce fait, authentifient l’objet auquel ils se réfèrent. Puisque cette étude analyse l’évolution médiatique de la légende urbaine, elle se conclut sur son déplacement du cinéma vers Internet et de sa nouvelle crédibilisation grâce aux vidéos macabres, à la pornographie juvénile et au récent cas Magnotta.
Modes de conceptualisation métaphoriques et théorie de l’évolution : analyse textuelle et traduction
Resumo:
Éminent naturaliste du XIXe siècle, Charles Darwin publie en 1859 ce qui s'avérera être l’un des textes fondateurs des sciences de la vie : On the origin of species by means of natural selection, or the preservation of favoured races in the struggle for life (ou OS). Ce volumineux ouvrage pose les assises conceptuelles de la théorie darwinienne de l'évolution. Cette dernière suscite encore de nos jours la controverse : certains la nient (créationnisme, dessein intelligent, etc.) alors que d'autres la poussent à l'extrême (eugénisme, darwinisme social, etc.). Vu la grande portée de l'OS, le problème de sa traduction en français se présente de lui-même. Ce champ d'étude reste pourtant largement inexploré. Nous avons donc choisi, dans le présent travail, d’étudier les traductions françaises de l’OS. Notre étude s’inscrivant dans un axe de recherche qui s’intéresse aux modes de conceptualisation métaphorique en usage dans les domaines biomédicaux, ainsi qu’aux problèmes de traduction qu’ils soulèvent, nous avons choisi de nous concentrer plus particulièrement sur les modes de conceptualisation métaphorique présents dans le texte de l'OS, et sur la manière dont ils ont été traduits en français. Pour mener à bien ce projet, nous avons élaboré une méthodologie à partir de celle déjà utilisée avec succès dans des études antérieures menées au sein du même axe de recherche que le nôtre. En plus de l’annotation et l’interrogation informatisée de notre corpus, cette méthodologie consiste en la mise en relation, au plan informatique, de plusieurs traductions d’un même texte. De par sa complexité technique, son élaboration constitue l’un des objectifs majeurs de notre étude. Les résultats obtenus nous ont permis de confirmer deux de nos trois hypothèses : 1) la totalité des modes de conceptualisation identifiés dans notre corpus anglais se retrouvent également dans chacune des traductions, et 2) aucun mode de conceptualisation métaphorique ne peut être dégagé des traductions françaises qui n’est pas déjà présent dans l’original anglais. En plus de nous permettre de comparer chaque traduction à l’original anglais, ces résultats nous ont également permis de comparer entre elles les différentes traductions françaises de l’OS. Ce mémoire de maîtrise comporte six chapitres, qui correspondent tour à tour à : notre cadre théorique, l'état de la question, nos hypothèses et nos objectifs, notre méthodologie, nos résultats et la discussion de ces résultats.
Resumo:
Cette thèse traite de la structure électronique de supraconducteurs telle que déterminée par la théorie de la fonctionnelle de la densité. Une brève explication de cette théorie est faite dans l’introduction. Le modèle de Hubbard est présenté pour pallier à des problèmes de cette théorie face à certains matériaux, dont les cuprates. L’union de deux théories donne la DFT+U, une méthode permettant de bien représenter certains systèmes ayant des électrons fortement corrélés. Par la suite, un article traitant du couplage électron- phonon dans le supraconducteur NbC1−xNx est présenté. Les résultats illustrent bien le rôle de la surface de Fermi dans le mécanisme d’appariement électronique menant à la supraconductivité. Grâce à ces résultats, un modèle est développé qui permet d’expliquer comment la température de transition critique est influencée par le changement des fré- quences de vibration du cristal. Ensuite, des résultats de calcul d’oscillations quantiques obtenus par une analyse approfondie de surfaces de Fermi, permettant une comparaison directe avec des données expérimentales, sont présentés dans deux articles. Le premier traite d’un matériau dans la famille des pnictures de fer, le LaFe2P2. L’absence de su- praconductivité dans ce matériau s’explique par la différence entre sa surface de Fermi obtenue et celle du supraconducteur BaFe2As2. Le second article traite du matériau à fermions lourds, le YbCoIn5. Pour ce faire, une nouvelle méthode efficace de calcul des fréquences de Haas-van Alphen est développée. Finalement, un dernier article traitant du cuprate supraconducteur à haute température critique YBa2Cu3O6.5 est présenté. À l’aide de la DFT+U, le rôle de plusieurs ordres magnétiques sur la surface de Fermi est étudié. Ces résultats permettent de mieux comprendre les mesures d’oscillations quan- tiques mesurées dans ce matériau.
Resumo:
L’histoire du concept d’idéologie est riche des différentes définitions qui ont tenté de le circonscrire, en tension entre la description de visions du monde et la dénonciation de la « fausse conscience ». Chez les penseurs regroupés sous le nom d’ « École de Francfort », l’idéologie en vient à équivaloir au phénomène de l’industrie culturelle, c’est-à-dire la mise au service de la raison technique dans la production de la culture. Le statut du cinéma est intéressant à cet égard : non seulement est-ce un art né à l’époque industrielle et indissociable des possibilités techniques offertes par celle-ci, mais il a été mobilisé pour de nombreuses entreprises propagandistes, plus ou moins subtiles. La question directrice de l’interrogation est donc la suivante : selon la théorie critique de l’École de Francfort, le cinéma peut-il être considéré comme de l’art ou est-il confiné au domaine de l’idéologie ? Autrement dit, le cinéma peut-il revendiquer un statut qui ne ferait pas de lui qu’un support de la domination de l’humain par l’humain ?
Resumo:
La thèse insiste sur les différents aspects du terme interprétation. Si son sens varie d’une discipline à l’autre, il varie également d’un juriste à un autre. Partant du constat de l’inadéquation de la théorie classique reposant sur la distinction entre méthode subjective et méthode objective d’interprétation, la thèse propose une nouvelle théorie interprétative basée sur les théories de la communication (la rhétorique et la pragmatique). La théorie pragmatique ainsi développée est par la suite illustrée à l’aide de la jurisprudence de la Cour d’appel du Québec. Ceci afin de démontrer qu’il n’y a pas une théorie interprétative, mais bien des théories interprétatives du contrat au sein des magistrats. Ces théories se distinguent par la prépondérance qu’elles accordent aux arguments de volonté, de logique et d’effectivité. De plus, la thèse fait la démonstration de la nécessité de distinguer entre la production de la norme (opération intellectuelle suivie par l’interprète inaccessible pour l’auditoire) et la justification de la norme (argumentation développée par l’interprète afin de convaincre l’auditoire). S’il peut y avoir adéquation entre ces deux étapes, il peut également y avoir discordance entre le processus suivi afin d’arriver au résultat interprétatif et la justification de ce dernier. Tel est le cas notamment lorsque l’interprète argumente à l’aide de la théorie de l’acte clair voulant qu’un texte clair n’ait pas besoin d’être interprété.
Resumo:
Les implications philosophiques de la Théorie de la Perspective de 1979, notamment celles qui concernent l’introduction d’une fonction de valeur sur les résultats et d’un coefficient de pondération sur les probabilités, n’ont à ce jour jamais été explorées. Le but de ce travail est de construire une théorie philosophique de la volonté à partir des résultats de la Théorie de la Perspective. Afin de comprendre comment cette théorie a pu être élaborée il faut étudier la Théorie de l’Utilité Attendue dont elle est l’aboutissement critique majeur, c’est-à-dire les axiomatisations de la décision de Ramsey (1926), von Neumann et Morgenstern (1947), et enfin Savage (1954), qui constituent les fondements de la théorie classique de la décision. C’est entre autres la critique – par l’économie et la psychologie cognitive – du principe d’indépendance, des axiomes d’ordonnancement et de transitivité qui a permis de faire émerger les éléments représentationnels subjectifs à partir desquels la Théorie de la Perspective a pu être élaborée. Ces critiques ont été menées par Allais (1953), Edwards (1954), Ellsberg (1961), et enfin Slovic et Lichtenstein (1968), l’étude de ces articles permet de comprendre comment s’est opéré le passage de la Théorie de l’Utilité Attendue, à la Théorie de la Perspective. À l’issue de ces analyses et de celle de la Théorie de la Perspective est introduite la notion de Système de Référence Décisionnel, qui est la généralisation naturelle des concepts de fonction de valeur et de coefficient de pondération issus de la Théorie de la Perspective. Ce système, dont le fonctionnement est parfois heuristique, sert à modéliser la prise de décision dans l’élément de la représentation, il s’articule autour de trois phases : la visée, l’édition et l’évaluation. À partir de cette structure est proposée une nouvelle typologie des décisions et une explication inédite des phénomènes d’akrasie et de procrastination fondée sur les concepts d’aversion au risque et de surévaluation du présent, tous deux issus de la Théorie de la Perspective.
Resumo:
Cette thèse est organisée en trois chapitres. Les deux premiers s'intéressent à l'évaluation, par des méthodes d'estimations, de l'effet causal ou de l'effet d'un traitement, dans un environnement riche en données. Le dernier chapitre se rapporte à l'économie de l'éducation. Plus précisément dans ce chapitre j'évalue l'effet de la spécialisation au secondaire sur le choix de filière à l'université et la performance. Dans le premier chapitre, j'étudie l'estimation efficace d'un paramètre de dimension finie dans un modèle linéaire où le nombre d'instruments peut être très grand ou infini. L'utilisation d'un grand nombre de conditions de moments améliore l'efficacité asymptotique des estimateurs par variables instrumentales, mais accroit le biais. Je propose une version régularisée de l'estimateur LIML basée sur trois méthodes de régularisations différentes, Tikhonov, Landweber Fridman, et composantes principales, qui réduisent le biais. Le deuxième chapitre étend les travaux précédents, en permettant la présence d'un grand nombre d'instruments faibles. Le problème des instruments faibles est la consequence d'un très faible paramètre de concentration. Afin d'augmenter la taille du paramètre de concentration, je propose d'augmenter le nombre d'instruments. Je montre par la suite que les estimateurs 2SLS et LIML régularisés sont convergents et asymptotiquement normaux. Le troisième chapitre de cette thèse analyse l'effet de la spécialisation au secondaire sur le choix de filière à l'université. En utilisant des données américaines, j'évalue la relation entre la performance à l'université et les différents types de cours suivis pendant les études secondaires. Les résultats suggèrent que les étudiants choisissent les filières dans lesquelles ils ont acquis plus de compétences au secondaire. Cependant, on a une relation en U entre la diversification et la performance à l'université, suggérant une tension entre la spécialisation et la diversification. Le compromis sous-jacent est évalué par l'estimation d'un modèle structurel de l'acquisition du capital humain au secondaire et de choix de filière. Des analyses contrefactuelles impliquent qu'un cours de plus en matière quantitative augmente les inscriptions dans les filières scientifiques et technologiques de 4 points de pourcentage.
Resumo:
L'objectif poursuivi dans ce mémoire est de montrer que le néo-républicanisme possède les outils les plus efficaces pour penser la réconciliation des droits individuels, fondement des États de droits occidentaux contemporains, et des droits collectifs que peuvent légitimement réclamer les collectivités nationales. Dans cette visée, et comme de nombreux auteurs libéraux se sont attaqués à cette question dans les dernières décennies, j'expose d'abord trois stratégies libérales pour traiter cette possible réconciliation tout en faisant ressortir leurs faiblesses respectives. J'avance qu'aucune de ces stratégies ne permet vraiment de comprendre comment un régime de droits collectifs et un régime de droits individuels peuvent être articulés de façon cohérente. J'argue ensuite que le néo-républicanisme, parce qu'il comprend la liberté non pas comme l'absence d'interférence, mais comme un statut de non-domination, permet de voir que les droits collectifs des groupes nationaux et les droits individuels sont nécessairement compatibles, parce qu'ils s'organisent en fonction du même idéal. Les droits d'un individu et ceux de sa collectivité nationale sont, d'une certaine manière, les deux faces d'une même médaille, la non-domination individuelle dépendant de la non-domination du groupe national auquel l'individu appartient. En dernier lieu, je soutiens que cette compréhension du rapport entre les deux régimes de droits devrait se traduire par un ensemble de mesures institutionnelles concrètes dont la plus importante est la reconnaissance d'un droit, pour les collectivités nationales, à l'autodétermination.
Resumo:
Le présent mémoire de maîtrise se propose d’approfondir l’interprétation kantienne du penchant au mal comme une manière de penser, en supposant qu’il est possible de décrire cette forme de pensée et d’en dériver une image de l’homme moralement mauvaise. Pour ce faire, la présente étude comprend le penchant au mal moral comme une manière de penser qui opère dans un double mouvement : premièrement, comme une inversion de l’ordre moral qui permet à l’agent de subordonner le bon principe au mauvais et, deuxièmement, comme un détournement qui permet à l’agent d’étouffer la voix de sa conscience afin de s’auto persuader que ses intentions égoïstes sont justes. C’est dans ce double mouvement que la présente étude trouve sa structure.
Resumo:
La guerre et ses conséquences sont trop importantes pour que la réflexion philosophique ne s’y attarde pas. Pour comprendre ses fondements et ses mécanismes internes, il faut une pensée qui creuse au coeur même des comportements guerriers. C’est ce que Thomas Hobbes et Carl von Clausewitz ont chacun tenté de faire en réfléchissant sur la nature de la guerre. Ce mémoire vise entre autres à rendre compte de leur théorie respective sur la nature de la guerre et de voir les rapprochements possibles. L’analyse du concept d’état de guerre et de ses causes chez Hobbes, de même que la pensée de Clausewitz centrée sur la nature de la guerre, rendent compte d’une même dynamique où la relation de réciprocité qu’entretiennent les belligérants conduit à une montée de la violence. La notion de volonté est centrale chez nos auteurs, car elle explique autant cette montée continue de la violence que sa possible résolution vers la paix. Écartant la sphère de la morale et du droit pour penser le phénomène guerrier, leurs réflexions se veulent froides et sans illusion. En saisissant la dynamique relationnelle (et mimétique) qui conduit à un désir illimité de puissance, nos deux auteurs décortiquent l’essence de la guerre par une pensée fondamentalement orientée vers la paix. Ainsi nous donnent-ils des outils pour éviter le pire.
Resumo:
Si la santé psychologique au travail retient de plus en plus l’attention de la communauté scientifique et des milieux de pratique, certains aspects du phénomène restent néanmoins à explorer. Notamment, les études se sont peu attardées au fonctionnement de l’individu dans l’organisation, focalisant plutôt sur les expériences subjectives associées au bien-être et à la détresse psychologiques. En outre, l’état des connaissances sur les mécanismes sous-jacents à la santé psychologique au travail demeure embryonnaire. Faute d’écrits sur la question, la compréhension du construit s’avère partielle. Devant ce constat, la présente thèse vise à modéliser la santé psychologique au travail en y intégrant des indicateurs du fonctionnement de l’employé. Dans cette optique, cinq études, regroupées en deux articles, ont été menées auprès de quatre échantillons indépendants (Article 1 : NA = 296, NB = 350, NC = 139; Article 2 : NB = 330, NC = 128; ND = 389). Le premier article a pour objet de développer une conceptualisation et une mesure du fonctionnement de l’individu dans l’organisation. Prenant appui sur les travaux en socialisation organisationnelle et sur la théorie de la conservation des ressources (Hobfoll, 1989, 2001), l’ajustement cognitif au travail est proposé à titre d’indicateur additionnel de la santé psychologique au travail. Des analyses factorielles exploratoires et confirmatoires, de même que des analyses de cohérence interne, d’invariance temporelle et de régression, confirment les qualités psychométriques de l’instrumentation et étayent la validité de l’ajustement cognitif au travail comme indicateur de la santé psychologique au travail. Le second article s’appuie sur la conceptualisation du fonctionnement de l’employé présentée dans le premier article pour tester une modélisation de la santé psychologique au travail. Se fondant sur la théorie de la conservation des ressources (Hobfoll, 1989, 2001), la santé psychologique au travail est modélisée comme un processus incluant quatre indicateurs, soit le bien-être psychologique, la détresse psychologique, l’ajustement cognitif et les réponses comportementales de stress au travail. Deux mécanismes distincts sont mis de l’avant pour expliquer les relations unissant les indicateurs positifs de santé psychologique au travail (c.-à-d., le bien-être psychologique et l’ajustement cognitif) et celles caractérisant les indicateurs négatifs (c.-à-d., la détresse psychologique et les réponses comportementales de stress). Des analyses acheminatoires et d’invariance transculturelle révèlent la présence des deux mécanismes et montrent que, au-delà de l’influence des demandes en emploi, le bien-être psychologique exerce un effet médiateur sur la relation positive entre des ressources personnelles (c.-à-d., optimisme et résilience) et organisationnelle (c.-à-d., climat de travail) et l’ajustement cognitif au travail. Les résultats mettent également en exergue le rôle médiateur de la détresse psychologique sur la relation négative entre les mêmes ressources et les réponses comportementales de stress au travail. Une discussion générale précise la portée des résultats présentés dans le cadre des deux articles.
Resumo:
La présente thèse porte sur les calculs utilisant la théorie de la fonctionnelle de la densité (DFT) pour simuler des systèmes dans lesquels les effets à longue portée sont importants. Une emphase particulière est mise sur les calculs des énergies d’excitations, tout particulièrement dans le cadre des applications photovoltaïques. Cette thèse aborde ces calculs sous deux angles. Tout d’abord, des outils DFT déjà bien établis seront utilisés pour simuler des systèmes d’intérêt expérimental. Par la suite, la théorie sous-jacente à la DFT sera explorée, ses limites seront identifiées et de nouveaux développements théoriques remédiant à ceux-ci seront proposés. Ainsi, dans la première partie de cette thèse, des calculs numériques utilisant la DFT et la théorie de la fonctionnelle de la densité dépendante du temps (TDDFT) telles qu’implémentées dans le logiciel Gaussian [1] sont faits avec des fonctionnelles courantes sur des molécules et des polymères d’intérêt expérimental. En particulier, le projet présenté dans le chapitre 2 explore l’utilisation de chaînes latérales pour optimiser les propriétés électroniques de polymères déjà couramment utilisés en photovoltaïque organique. Les résultats obtenus montrent qu’un choix judicieux de chaînes latérales permet de contrôler les propriétés électroniques de ces polymères et d’augmenter l’efficacité des cellules photovoltaïques les utilisant. Par la suite, le projet présenté dans le chapitre 3 utilise la TDDFT pour explorer les propriétés optiques de deux polymères, le poly-3-hexyl-thiophène (P3HT) et le poly-3-hexyl- sélénophène (P3HS), ainsi que leur mélange, dans le but d’appuyer les observations expérimentales indiquant la formation d’exciplexe dans ces derniers. Les calculs numériques effectués dans la première partie de cette thèse permettent de tirer plusieurs conclusions intéressantes, mais mettent également en évidence certaines limites de la DFT et de la TDDFT pour le traitement des états excités, dues au traitement approximatif de l’interaction coulombienne à longue portée. Ainsi, la deuxième partie de cette thèse revient aux fondements théoriques de la DFT. Plus précisément, dans le chapitre 4, une série de fonctionnelles modélisant plus précisément l’interaction coulombienne à longue portée grâce à une approche non-locale est élaborée. Ces fonctionnelles sont basées sur la WDA (weighted density approximation), qui est modifiée afin d’imposer plusieurs conditions exactes qui devraient être satisfaites par le trou d’échange. Ces fonctionnelles sont ensuite implémentées dans le logiciel Gaussian [1] et leurs performances sont évaluées grâce à des tests effectués sur une série de molécules et d’atomes. Les résultats obtenus indiquent que plusieurs de ces fonctionnelles donnent de meilleurs résultats que la WDA. De plus, ils permettrent de discuter de l’importance relative de satisfaire chacune des conditions exactes.
Resumo:
Cette recherche, réalisée en milieu scolaire québécois, concerne l’enseignement et l’apprentissage de la géométrie à l’entrée au secondaire. Ce contexte est caractérisé par une géométrie non clairement définie d’un point de vue épistémologique, tant dans le programme d’études du premier cycle que dans les manuels scolaires. Ainsi, nous avons cherché à voir d’une part, l’activité géométrique souhaitée et actualisée par des enseignants incluant les problèmes proposés et, d’autre part, les conceptions d’élèves développées par ces problèmes. À partir de données recueillies auprès de quatre classes, nous avons déterminé cette activité géométrique et répertorié six types de problèmes dont quatre sont dominants ainsi que des conceptions d’élèves. L’activité géométrique en classe a donné lieu à des moments d’hésitation épistémologique, lesquels ne sont pas sans effet dans le développement des conceptions des élèves.