1000 resultados para Théories des genres
Resumo:
L’objectif de ce mémoire est de comprendre l’impact de la justice organisationnelle sur l’engagement organisationnel des travailleurs du secteur des technologies de l’information et des communications (TIC). Afin d’étudier ce sujet, trois hypothèses de recherche ont été formulés à partir des théories suivantes : 1- la théorie des attentes d’Adams (1965), 2- la théorie de l’échange social de Blau (1964) et 3- la théorie de Leventhal (1980). La première hypothèse stipule que, toutes choses étant égales par ailleurs, la justice distributive fait augmenter l’engagement affectif des travailleurs du secteur des TIC. La seconde hypothèse indique que toutes choses étant égales par ailleurs, la justice procédurale fait augmenter l’engagement affectif des travailleurs du secteur des TIC. La dernière hypothèse énonce que toutes choses étant égales par ailleurs, la justice procédurale a un impact plus important sur l’engagement affectif des travailleurs du secteur des TIC que la justice distributive. Les données utilisées proviennent d’une enquête par questionnaires électroniques auprès de l’ensemble des nouveaux employés d’une entreprise d’envergure internationale du secteur des TIC ayant un établissement à Montréal. Les employés ont été sondés à trois reprises. Les résultats indiquent que la justice distributive fait augmenter l’engagement affectif auprès des travailleurs, ce qui appuie la première hypothèse. Ils démontrent également qu’il n’existe aucune relation statistiquement significative entre la justice procédurale et l’engagement affectif. Seule la justice distributive a un effet sur l’engagement affectif du travailleur. Les résultats montrent l’existence de relations significatives et positives entre trois des variables de contrôle et l’engagement affectif. Il s’agit de : 1- travail sous supervision, 2- soutien organisationnel perçu et 3- satisfaction intrinsèque.
Resumo:
Dans le cadre d’une sociologie des organisations portant sur les liens entre organisations télévisuelles et environnement, la présente thèse a pour objectif de cerner les modalités du développement récent de la télévision au Québec en le comparant à celui de la Belgique francophone et de la Suisse. Une telle comparaison repose sur un principe méthodologique simple: on cerne d’autant mieux la réalité que l’on étudie si on peut la comparer à une réalité équivalente d’autres sociétés. En s’appuyant sur des théories de développement organisationnel reliées au courant néo-fonctionnaliste et en adaptant des « histoires de cas » d’études organisationnelles à la réalité télévisuelle des années 90 et 2000, le chercheur a mis au point une grille de classification des données permettant d’étudier les composantes du développement de la télévision dans trois « petites » sociétés industrialisées. Dans un premier temps, il a pu constater une augmentation très importante du nombre de chaînes de télévision par rapport à ce qu’il était dans les années 50 à 70, le tout encadré par les autorités réglementaires en place. Par la suite, dans chacune de ces trois sociétés et sur une période de vingt-cinq ans, il a pu préciser les interactions et échanges entre organisations télévisuelles et environnement lesquels ont été, selon les cas, harmonieux, difficiles, voire même conflictuels. Après avoir comparé les modalités d’une telle augmentation entre les trois sociétés, le chercheur a pu constater une convergence de surface. On note bien quelques similitudes entre les trois sociétés, mais, surtout, chacune d’entre elles est restée sur son quant-à-soi. En Suisse, l’importance accordée au consensus social a favorisé un développement équilibré de l’augmentation des chaines. En Belgique, pays aux divisions profondes constamment réaffirmées, les oppositions ont permis, malgré tout, l’édification d’un ensemble audiovisuel relativement stable. Au Québec, avec une augmentation exponentielle du nombre de chaines, on a assisté à un véritable surdéveloppement de la télévision encouragé et planifié par les autorités gouvernementales canadiennes en réaction à un supposé envahissement culturel américain. Le CRTC, la régie des ondes canadiennes, a pesé de tout son poids pour favoriser l’augmentation du contenu canadien et de la production locale. Par ailleurs, cette augmentation s’est faite avec des ressources limitées. On en fait trop avec trop peu. C’est ce qui permettrait d’expliquer la baisse de qualité de la télévision québécoise contemporaine. Comme élément de solution aux problèmes que la télévision québécoise connait présentement, il faudrait considérer cette dernière pour ce qu’elle est véritablement: une petite télévision dans un univers industriellement hautement développé. Si une telle conception est très bien acceptée aussi bien en Belgique qu’en Suisse, elle ne l’est pas au Québec
Resumo:
Ce mémoire porte sur l’efficacité des campagnes sociales sur Internet afin d’encourager les jeunes adultes à voter. La constatation du déclin de la participation électorale des jeunes adultes nous a poussés à vouloir comprendre quels sont les enjeux qui touchent à cette problématique et comment les campagnes sociales incitatives au vote peuvent répondre à un certain besoin. La campagne électorale des élections générales canadiennes du 2 mai 2011, durant laquelle plusieurs outils Internet ont été développés pour inciter la population à voter, le plus connu étant la Boussole électorale, a constitué un contexte clé pour nous permettre d’explorer le sujet. À l’aide des théories sur l’influence des médias et de celles de la persuasion, nous allons mieux comprendre les possibilités qu’offre le Web pour la mobilisation sociale. Deux cueillettes de données ont été faites, soit une première quantitative par questionnaire pour voir le niveau de pénétration de ces outils Internet ainsi que leur appréciation, soit une deuxième qualitative par groupe de discussion afin d’approfondir la problématique de la désaffection politique et d’analyser la pertinence des campagnes sociales incitatives au vote. La mise en commun des résultats nous a permis de comprendre, entre autres, que les campagnes sociales sur Internet peuvent constituer un outil de conscientisation politique dans certaines circonstances et qu’elles peuvent bénéficier des réseaux sociaux comme Facebook et Twitter. Toutefois, le besoin d’éducation civique demeure une solution récurrente lorsqu’on parle d’encourager les jeunes adultes à voter.
Resumo:
Le sujet de la gestion du risque m’a toujours interpelée, surtout après que j’ai vécu deux ouragans et un tremblement de terre dévastateurs au Salvador. Bien qu’on ait assez écrit sur le sujet en le reliant souvent aux changements climatiques, on ne sait pas comment les organisations gouvernementales et civiles vivent cette gestion du risque au quotidien. À partir d’une étude ethnographique de la Commission de la protection civile de la Mairie de Tecoluca au Salvador, j’observais les processus qui se mettent en place dans la recherche et l’analyse des facteurs structuraux causant les situations de vulnérabilité. Pour ce faire, j’adoptais une approche basée sur l’étude des interactions, mobilisant les théories de la cognition distribuée et de l’acteur réseau. Comme je le montre, la gestion du risque, vue comme un processus participatif, se caractérise, d’une part, par la coopération et la coordination entre les personnes et, d’autre part, par la contribution d’outils, de technologies, de documents et de méthodes contribuant à la détection de risques. Ceci exige la mobilisation de connaissances qui doivent être produites, partagées et distribuées entre les membres d’un groupe à travers les divers artéfacts, outils, méthodes et technologies qu’ils mobilisent et qui les mobilisent. À ce sujet, la théorie de la cognition distribuée permet d’explorer des interactions qui se produisent au sein d’un groupe de travail en se focalisant sur ce qui contribue à l’acte de connaitre, conçu comme une activité non pas seulement individuelle, mais surtout collective et distribuée. Par ailleurs, la théorie de l’acteur-réseau me permet, quant à elle, de montrer comment dans l’exécution de cette tâche (la gestion du risque), la contribution active d’acteurs non humains, tant en soi qu’en relations avec les acteurs humains, participe de l’activité de détection et de prévention du risque.
Resumo:
Notre laboratoire a récemment découvert un mode d’expression des gènes mitochondriaux inédit chez le protozoaire biflagellé Diplonema papillatum. Outre son ADNmt formé de centaines de chromosomes circulaires, ses gènes sont fragmentés. Le gène cox1 qui code pour la sous unité I de la cytochrome oxydase est formé de neuf modules portés par autant de chromosomes. L’ARNm de cox1 est obtenu par épissage en trans et il est également édité par insertion de six uridines entre deux modules. Notre projet de recherche a porté sur une étude globale des processus post-transcriptionnels du génome mitochondrial de diplonémides. Nous avons caractérisé la fragmentation de cox1 chez trois autres espèces appartenant aux deux genres du groupe de diplonémides à savoir : Diplonema ambulator, Diplonema sp. 2 et Rhynchopus euleeides. Le gène cox1 est fragmenté en neuf modules chez tous ces diplonémides mais les modules sont portés par des chromosomes de taille et de séquences différentes d’une espèce à l’autre. L’étude des différentes espèces a aussi montrée que l’édition par insertion de six uridines entre deux modules de l’ARNm de cox1 est commune aux diplonémides. Ainsi, la fragmentation des gènes et l’édition des ARN sont des caractères communs aux diplonémides. Une analyse des transcrits mitochondriaux de D. papillatum a permis de découvrir quatre autres gènes mitochondriaux édités, dont un code pour un ARN ribosomique. Donc, l'édition ne se limite pas aux ARNm. De plus, nous avons montré qu’il n’y a pas de motifs d’introns de groupe I, de groupe II, de type ARNt ou d’introns impliqués dans le splicéosome et pouvant être à l’origine de l’épissage des modules de cox1. Aucune complémentarité significative de séquence n’existe entre les régions flanquantes de deux modules voisins, ni de résidus conservés au sein d’une espèce ou à travers les espèces. Nous avons donc conclu que l’épissage en trans de cox1 chez les diplonémides fait intervenir un nouveau mécanisme impliquant des facteurs trans plutôt que cis. L’épissage et l’édition de cox1 sont dirigés probablement par des ARN guides, mais il est également possible que les facteurs trans soient des molécules protéiques ou d’ADN. Nous avons élucidé les processus de maturation des transcrits mitochondriaux de D. papillatum. Tous les transcrits subissent trois étapes coordonnées et précises, notamment la maturation des deux extrémités, l’épissage, la polyadénylation du module 3’ et dans certains cas l’édition. La maturation des extrémités 5’ et 3’ se fait parallèlement à l’épissage et donne lieu à trois types d’intermédiaires. Ainsi, un transcrit primaire avec une extrémité libre peut se lier à son voisin. Cet épissage se fait apparemment sans prioriser un certain ordre temporel alors que dans le cas des transcrits édités, l’édition précède l`épissage. Ces études donnant une vue globale de la maturation des transcrits mitochondriaux ouvrent la voie à des analyses fonctionnelles sur l’épissage et l’édition chez D. papillatum. Elles sont le fondement pour finalement élucider les mécanismes moléculaires de ces deux processus post-transcriptionnels de régulation dans ce système intriguant.
Resumo:
La version intégrale de cette thèse est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (www.bib.umontreal.ca/MU).
Resumo:
Cette thèse avait pour objectif général d’approfondir nos connaissances sur les rêves dysphoriques (mauvais rêves et cauchemars), selon deux axes. Premièrement, nous avons voulu éclaircir les implications méthodologiques reliées aux différentes mesures de la fréquence de rappel de rêves (articles 1 et 2). Deuxièmement, nous avons voulu étudier un aspect encore peu exploré des rêves dysphoriques : leur contenu (article 3). Dans la première étude, nous avons comparé systématiquement différentes méthodes rétrospectives et prospectives utilisées pour mesurer la fréquence des cauchemars et des mauvais rêves chez 411 participants. En plus de reproduire les résultats d’études antérieures selon lesquelles les mesure rétrospectives sous-estiment la fréquence des rêves dysphoriques, nous avons démontré que ces fréquences n’étaient pas affectées de manière différentielle par le format de la mesure prospective (journaux de rêves narratifs ou à choix de réponse). Dans la deuxième étude, nous nous sommes intéressés à la fréquence de rappel onirique en général (i.e. de tous les rêves) auprès d'un échantillon de 358 participants pour approfondir les résultats relatifs à la comparaison entre les deux types de journaux de rêves obtenus dans la première étude. Nos résultats soulignent que la fréquence de rappel obtenue par un journal à choix de réponse est plus élevée que celle obtenue d’un journal narratif, et que le présumé effet d’augmentation de rappel attribué aux mesures prospectives est limité dans le temps. Ces résultats suggèrent que des facteurs motivationnels sont impliqués dans la tenue d’un journal de rêves, et que dans le cas des journaux narratifs, ces facteurs outrepasseraient les facteurs attentionnels favorisant le rappel onirique. Dans la troisième étude, nous avons comparé le contenu de 253 cauchemars et 431 mauvais rêves obtenus prospectivement auprès de 331 participants, offrant ainsi l’une des descriptions de ce type des plus détaillées à ce jour. Nos résultats démontrent que cauchemars et mauvais rêves partagent de nombreuses caractéristiques mais se différencient en plusieurs points : le contenu des cauchemars est davantage caractérisé par des menaces physiques, et celui des mauvais rêves par des menaces psychologiques. De plus, les cauchemars ont plus souvent la peur comme émotion principale, ont une intensité émotionnelle plus forte, se terminent plus souvent de façon négative et sont plus bizarres que les mauvais rêves. Ces différences de contenu entre mauvais rêves et cauchemars suggèrent que ces deux types de rêves sont des manifestations d’un même phénomène variant en termes d’intensité, et que cette intensité est multidimensionnelle. Les résultats de l’étude 3 sont discutés en lien avec différentes théories sur l’étiologie et la fonction des rêves.
Resumo:
L’essor de la discipline bactériologique est l’un des phénomènes les plus célébrés de l’historiographie médicale. Les approches qu’ont empruntées les historiens pour aborder le sujet depuis le tournant du XXe siècle se sont progressivement modifiées pour passer, le plus souvent, d’une interprétation endogène des développements de la science, où les concepts, les théories, les méthodes de la médecine sont perçus comme se développant isolément du contexte social dans lequel ils s’insèrent, à l’approche inverse, sociologique, où chacune des facettes de l’entreprise médico-scientifique est influencée par son milieu dans une interaction où les instances publiques, gouvernementales et professionnelles impliquées par les projets de médicalisation, formant une dynamique impassible, modifient le cours de chaque aspect de l’histoire médicale. Mais, en dehors des éléments professionnels, le développement de la pensée médico-scientifique est-il invariablement subjugué par cette dynamique sociale ? L’idéal de scientificité prôné par les médecins, formant un archétype dans lequel la rigueur du professionnel doit être isolée de ces facteurs extrinsèques n’est-il pas en mesure d’avoir conféré aux démarches médico-scientifiques une stabilité authentique vis-à-vis les fluctuations de l’environnement sociopolitique et professionnel dans lequel elles s’inscrivent ? Cette étude répond à ce questionnement par l’analyse exhaustive du discours défini par les périodiques médicaux du Québec entre 1840 et 1880. Elle s’articule sur deux développements inédits : l’un qui présente les assises méthodologiques de la vérification, c’est-à-dire la définition de l’archétype médical, son rôle dans la légitimation professionnelle, les critères de scientificité qu’il détermine de même qu’une typologie du discours qu’il permet d’inférer ; l’autre, ses résultats. L’étude montre que l’archétype décrit par le corps médical québécois, loin de n’être qu’un outil discursif par lequel la profession a pu être socialement reconnue au XIXe siècle, exerça une influence déterminante sur la formation de l’attitude professionnelle à l’égard des nouveautés étiologiques présentées par les pionniers de la bactériologie. En plus de dévoiler la trame exacte du développement de la pensée étiologique au Québec, la thèse souligne la complémentarité des approches internes et externes de l’historiographie médicale. Elle contribue ainsi à une représentation plus juste des processus à l’oeuvre dans le développement scientifique.
Resumo:
Il existe plusieurs théories du contrôle moteur, chacune présumant qu’une différente variable du mouvement est réglée par le cortex moteur. On trouve parmi elles la théorie du modèle interne qui a émis l’hypothèse que le cortex moteur programme la trajectoire du mouvement et l’activité électromyographique (EMG) d’une action motrice. Une autre, appelée l’hypothèse du point d’équilibre, suggère que le cortex moteur établisse et rétablisse des seuils spatiaux; les positions des segments du corps auxquelles les muscles et les réflexes commencent à s’activer. Selon ce dernier, les paramètres du mouvement sont dérivés sans pré-programmation, en fonction de la différence entre la position actuelle et la position seuil des segments du corps. Pour examiner de plus près ces deux théories, nous avons examiné l’effet d’un changement volontaire de l’angle du coude sur les influences cortico-spinales chez des sujets sains en employant la stimulation magnétique transcrânienne (TMS) par-dessus le site du cortex moteur projetant aux motoneurones des muscles du coude. L’état de cette aire du cerveau a été évalué à un angle de flexion du coude activement établi par les sujets, ainsi qu’à un angle d’extension, représentant un déplacement dans le plan horizontal de 100°. L’EMG de deux fléchisseurs du coude (le biceps et le muscle brachio-radial) et de deux extenseurs (les chefs médial et latéral du triceps) a été enregistrée. L’état d’excitabilité des motoneurones peut influer sur les amplitudes des potentiels évoqués moteurs (MEPs) élicitées par la TMS. Deux techniques ont été entreprises dans le but de réduire l’effet de cette variable. La première était une perturbation mécanique qui raccourcissait les muscles à l'étude, produisant ainsi une période de silence EMG. La TMS a été envoyée avec un retard après la perturbation qui entraînait la production du MEP pendant la période de silence. La deuxième technique avait également le but d’équilibrer l’EMG des muscles aux deux angles du coude. Des forces assistantes ont été appliquées au bras par un moteur externe afin de compenser les forces produites par les muscles lorsqu’ils étaient actifs comme agonistes d’un mouvement. Les résultats des deux séries étaient analogues. Un muscle était facilité quand il prenait le rôle d’agoniste d’un mouvement, de manière à ce que les MEPs observés dans le biceps fussent de plus grandes amplitudes quand le coude était à la position de flexion, et ceux obtenus des deux extenseurs étaient plus grands à l’angle d’extension. Les MEPs examinés dans le muscle brachio-radial n'étaient pas significativement différents aux deux emplacements de l’articulation. Ces résultats démontrent que les influences cortico-spinales et l’activité EMG peuvent être dissociées, ce qui permet de conclure que la voie cortico-spinale ne programme pas l’EMG à être générée par les muscles. Ils suggèrent aussi que le système cortico-spinal établit les seuils spatiaux d’activation des muscles lorsqu’un segment se déplace d’une position à une autre. Cette idée suggère que des déficiences dans le contrôle des seuils spatiaux soient à la base de certains troubles moteurs d’origines neurologiques tels que l’hypotonie et la spasticité.
Resumo:
La vie des femmes du continent africain et de leurs enfants continue d’être mise en danger lors de chaque accouchement car les risques de décès maternels et infantiles sont encore très élevés. Il est estimé chaque année à environ le quart du million le nombre de décès maternel et de près de quatre millions celui des enfants de moins de cinq ans. La comparaison de la situation sanitaire avec d’autres contextes permet de mieux cerner l’ampleur du problème : en Afrique sub-Saharienne, le risque de décès lié à la grossesse est de l’ordre de 1 pour 31, alors qu’il n’est que de 1 pour 4300 dans les pays industrialisés. Cette situation est évitable et, le plus souvent, résulte de la sous ou non-utilisation des services de santé maternelle, du manque de structures adéquates de soins ou de personnel de santé qualifié. Notre thèse cherche à comprendre la manière dont les inégalités de genre au sein du ménage et dans la communauté renforcent les inégalités quant à l’utilisation des services de santé maternelle, ainsi qu’aux relations empiriques qui lient les différents recours aux soins. Concrètement, elle vise à 1) proposer une mesure des normes de genre favorables à la violence contre les femmes et à analyser son influence sur leur prise de décision au sein du ménage, 2) analyser simultanément l’influence de ces normes et de l’autonomie des femmes sur le recours aux soins prénatals et à l’accouchement assisté et finalement, 3) cerner l’influence des soins prénatals sur le recours à l’accouchement assisté. Chacun de ces objectifs se heurte à un problème méthodologique substantiel, soit de mesure ou de biais de sélection, auxquels l’approche par modèles d’équations structurelles que nous avons adoptée permet de remédier. Les résultats de nos analyses, présentés sous forme d’articles scientifiques, s’appuient sur les données issues des Enquêtes Démographiques et de Santé (EDS) du Ghana, du Kenya, de l’Ouganda et de la Tanzanie et concernent les femmes vivant en milieu rural. Notre premier article propose une mesure des normes de genre et, plus exactement, celles liées à la violence contre les femmes en recourant à l’approche des variables latentes. Les cinq questions des EDS relatives à l’attitude des femmes sur la légitimation de la violence ont permis de saisir cette mesure au niveau contextuel. Les résultats suggèrent d’une part que cette mesure a de bons critères de validité puisque l’Alpha de Cronbach varie de 0.85 pour le Kenya à 0.94 pour le Ghana; les chi-deux sont non significatifs partout; le RMSEA est en dessous de 0.05; le CFI supérieur à 0.96 et les saturations sont pour la plupart supérieures à 0.7 dans tous les pays. D’autre part, à l’aide du modèle d’équations structurelles multiniveaux, nous avons trouvé qu’au-delà de leur propre attitude envers la violence contre les femmes, celles qui vivent dans un milieu où les normes de genres sont plus favorables à la violence ont plus de chances d’être de faible autonomie ou sans autonomie (comparativement à forte autonomie) dans l’ensemble des pays étudiés. Le second article documente l’influence des inégalités de genre, cernées au niveau contextuel par les normes favorables à la violence contre les femmes et au niveau individuel par l’autonomie de prise de décision au sein du ménage, sur la survenue des soins prénatals au cours du premier trimestre et sur les recours à au moins 4 consultations prénatales et à l’accouchement assisté. En utilisant également les modèles d’équations structurelles multiniveaux sur les mêmes données du premier article, nous constatons que chacune de ces variables dépendantes est fortement influencée par la grappe dans laquelle la femme vit. En d’autres mots, son lieu de résidence détermine le comportement de santé maternelle que l’on adopte. De même, en contrôlant pour les autres variables explicatives, nos résultats montrent que les femmes qui vivent dans un milieu où les normes de genre liées à la violence contre les femmes sont élevées ont, en moyenne, une plus grande chance de ne pas accoucher auprès d’un personnel qualifié au Ghana et en Ouganda, de ne pas débuter leurs soins prénatals dans le premier trimestre dans les mêmes pays, et de ne pas recourir à au moins quatre consultations prénatales en Tanzanie. Par contre, cette variable contextuelle n’influence pas significativement le recours aux soins de santé maternelle au Kenya. Enfin, les résultats montrent que les normes de genre favorables à la violence contre les femmes sont plus déterminantes pour comprendre le recours aux soins de santé maternelle dans les pays étudiés que l’autonomie de prise de décision de la femme. Dans le cadre du troisième et dernier article empirique de la thèse, nous nous sommes intéressés à l’importance des soins prénatals dans le processus de recours à l’accouchement assisté et à la place du contenu des soins reçus avant l’accouchement dans cette relation. Cet article met en exergue l’existence de biais d’endogénéité au Kenya et en Tanzanie, où sans sa prise en compte, l’effet des soins prénatals sur le recours à l’accouchement auprès d’un personnel qualifié serait fortement biaisé. De plus, il ressort qu’à l’exception du Ghana et dans une moindre mesure de la Tanzanie, cet effet est totalement médiatisé par le contenu des soins prénatals que les femmes reçoivent. L’article met ainsi en relief le rôle des prestataires de soins qui pour atteindre plus efficacement les populations doivent agir en tant que leaders au sein de leur communauté.
Resumo:
La traduction statistique requiert des corpus parallèles en grande quantité. L’obtention de tels corpus passe par l’alignement automatique au niveau des phrases. L’alignement des corpus parallèles a reçu beaucoup d’attention dans les années quatre vingt et cette étape est considérée comme résolue par la communauté. Nous montrons dans notre mémoire que ce n’est pas le cas et proposons un nouvel aligneur que nous comparons à des algorithmes à l’état de l’art. Notre aligneur est simple, rapide et permet d’aligner une très grande quantité de données. Il produit des résultats souvent meilleurs que ceux produits par les aligneurs les plus élaborés. Nous analysons la robustesse de notre aligneur en fonction du genre des textes à aligner et du bruit qu’ils contiennent. Pour cela, nos expériences se décomposent en deux grandes parties. Dans la première partie, nous travaillons sur le corpus BAF où nous mesurons la qualité d’alignement produit en fonction du bruit qui atteint les 60%. Dans la deuxième partie, nous travaillons sur le corpus EuroParl où nous revisitons la procédure d’alignement avec laquelle le corpus Europarl a été préparé et montrons que de meilleures performances au niveau des systèmes de traduction statistique peuvent être obtenues en utilisant notre aligneur.
Resumo:
Cette analyse porte sur le schématisme des concepts purs de l’entendement, tel que présenté par Emmanuel Kant dans la Critique de la raison pure et interprété par Martin Heidegger. La lecture proposée par Heidegger est critiquée par un bon nombre de commentateurs dans la mesure où ils considèrent que son interprétation ne lui sert qu’à faire valoir ses propres théories philosophiques au sujet du Dasein et de l’ontologie fondamentale. Notre approche se distingue de la leur dans la mesure où nous tentons de comprendre les raisons qui ont poussé Heidegger à défendre l’interprétation du schématisme qui est la sienne. Notre étude s’attarde au texte de Kant de manière à en souligner les éléments qui ont permis à Heidegger d’établir sa lecture, telle qu’il la présente dans son ouvrage de 1929, ayant pour titre Kant et le problème de la métaphysique. La méthode utilisée est comparative, car notre but est de démontrer la valeur de l’interprétation heideggérienne contre celle des commentateurs qui le critiquent pour des raisons insuffisantes. Bref, le thème du schématisme kantien est analysé de long en large et la conclusion à laquelle nous parvenons est que Heidegger a permis des avancées philosophiques considérables par son herméneutique de la Critique et qu’il est nécessaire de leur accorder l’attention qui leur est due.
Resumo:
Travail dirigé présenté à la Faculté des études supérieures et postdoctorales en vue de l’obtention du grade de Maîtrise ès sciences (M. Sc.) option expertise-conseil en soins infirmiers
Resumo:
Cette thèse traite de la structure électronique de supraconducteurs telle que déterminée par la théorie de la fonctionnelle de la densité. Une brève explication de cette théorie est faite dans l’introduction. Le modèle de Hubbard est présenté pour pallier à des problèmes de cette théorie face à certains matériaux, dont les cuprates. L’union de deux théories donne la DFT+U, une méthode permettant de bien représenter certains systèmes ayant des électrons fortement corrélés. Par la suite, un article traitant du couplage électron- phonon dans le supraconducteur NbC1−xNx est présenté. Les résultats illustrent bien le rôle de la surface de Fermi dans le mécanisme d’appariement électronique menant à la supraconductivité. Grâce à ces résultats, un modèle est développé qui permet d’expliquer comment la température de transition critique est influencée par le changement des fré- quences de vibration du cristal. Ensuite, des résultats de calcul d’oscillations quantiques obtenus par une analyse approfondie de surfaces de Fermi, permettant une comparaison directe avec des données expérimentales, sont présentés dans deux articles. Le premier traite d’un matériau dans la famille des pnictures de fer, le LaFe2P2. L’absence de su- praconductivité dans ce matériau s’explique par la différence entre sa surface de Fermi obtenue et celle du supraconducteur BaFe2As2. Le second article traite du matériau à fermions lourds, le YbCoIn5. Pour ce faire, une nouvelle méthode efficace de calcul des fréquences de Haas-van Alphen est développée. Finalement, un dernier article traitant du cuprate supraconducteur à haute température critique YBa2Cu3O6.5 est présenté. À l’aide de la DFT+U, le rôle de plusieurs ordres magnétiques sur la surface de Fermi est étudié. Ces résultats permettent de mieux comprendre les mesures d’oscillations quan- tiques mesurées dans ce matériau.
Resumo:
Ce mémoire propose une analyse du rôle qu’exerce le collectionneur d’art, un acteur ayant une capacité accrue à agir concrètement sur une part importante du monde artistique. La capacité des collectionneurs à agir comme mécènes pour certains artistes, à acheter leurs œuvres, à les vendre, à les exposer, sont autant d’actions qui ont un impact direct sur la carrière des artistes. Plus le collectionneur est reconnu comme une instance capable de légitimer le travail d’un artiste, plus il peut voir sa sphère d’influence devenir importante. Pour adéquatement saisir les effets qu’ont ces actions sur l’entièreté du monde artistique, nous avons choisi de prendre comme objet d’étude une figure particulière qui exemplifie le méga-collectionneur, Charles Saatchi. En assumant lui-même, tour-à-tour, plusieurs rôles dans le monde de l’art, il est reconnu comme un agent apte à reconnaître la légitimité d'une proposition artistique. La première partie de ce mémoire nous permet d'observer l'élaboration d'une véritable tradition du collectionnement et ses principaux acteurs derrière celle-ci. Dans un deuxième temps, le mémoire présente les théories qui expliquent l'avènement du pouvoir prépondérant reconnu au méga-collectionneur. Sont ainsi observés les principes de coopération, propres aux « mondes de l'art », ainsi que les phénomènes de médiation. Finalement, nous étudions, décrivons et définissons les actions et les interactions des divers acteurs et agents qui participent au réseau dont Saatchi est le centre afin de cerner la place qu’il occupe dans le champ culturel, donc sa propre légitimité et sa capacité à reconnaître et à consacrer d’autres acteurs.