477 resultados para Représentation graphique
Resumo:
Le design d'éclairage est une tâche qui est normalement faite manuellement, où les artistes doivent manipuler les paramètres de plusieurs sources de lumière pour obtenir le résultat désiré. Cette tâche est difficile, car elle n'est pas intuitive. Il existe déjà plusieurs systèmes permettant de dessiner directement sur les objets afin de positionner ou modifier des sources de lumière. Malheureusement, ces systèmes ont plusieurs limitations telles qu'ils ne considèrent que l'illumination locale, la caméra est fixe, etc. Dans ces deux cas, ceci représente une limitation par rapport à l'exactitude ou la versatilité de ces systèmes. L'illumination globale est importante, car elle ajoute énormément au réalisme d'une scène en capturant toutes les interréflexions de la lumière sur les surfaces. Ceci implique que les sources de lumière peuvent avoir de l'influence sur des surfaces qui ne sont pas directement exposées. Dans ce mémoire, on se consacre à un sous-problème du design de l'éclairage: la sélection et la manipulation de l'intensité de sources de lumière. Nous présentons deux systèmes permettant de peindre sur des objets dans une scène 3D des intentions de lumière incidente afin de modifier l'illumination de la surface. De ces coups de pinceau, le système trouve automatiquement les sources de lumière qui devront être modifiées et change leur intensité pour effectuer les changements désirés. La nouveauté repose sur la gestion de l'illumination globale, des surfaces transparentes et des milieux participatifs et sur le fait que la caméra n'est pas fixe. On présente également différentes stratégies de sélection de modifications des sources de lumière. Le premier système utilise une carte d'environnement comme représentation intermédiaire de l'environnement autour des objets. Le deuxième système sauvegarde l'information de l'environnement pour chaque sommet de chaque objet.
Resumo:
Héritière de la tradition fantastique borgésienne, imprégnée d’une réalité composée de mythes précolombiens et des résidus industriels de la modernité, et développée à l’ère de la mondialisation, du post-modernisme, des jeux vidéos, du cinéma numérique et d’animation, la tendance cyberpunk latino-américaine est cultivée du Mexique jusqu’en Argentine, en passant par Cuba et d’autres pays souvent méconnus dans le monde de la science-fiction comme le Paraguay et la Bolivie. Pressenti dans les œuvres de certains écrivains canoniques comme Ricardo Piglia, Carmen Boullosa ou Edmundo Paz-Soldán, le cyberpunk se manifeste avec force dans l’écriture de jeunes artistes interdisciplinaires et de collaborateurs assidus des fanzines. Cette adaptation du sous-genre dans un continent où la référence reste encore le réel merveilleux et le réalisme magique, malgré l’apport des générations plus récentes comme celle de « McOndo » ou celle du « Crack », essaie d’élaborer une série de réponses aux questions issues de la conjoncture historique et artistique dans laquelle nous vivons : comment situer l’identité latino-américaine dans la nouvelle cartographie culturelle mondiale à travers une littérature qui cherche à se renouveler par rapport au canon littéraire et à la marginalité de son propre genre? Quelles sont les stratégies d’assimilation et de résistance qu’adoptent des jeunes auteurs latino-américains devant le cyberpunk anglo-américain littéraire et cinématographique? Peut-on parler d’un impact esthétique et philosophique du cyberpunk sur la culture latino-américaine, perçue habituellement comme une consommatrice passive de ces produits culturels et non comme une productrice? Ce travail cherche à parcourir l’ensemble de ces questions à partir d’une réflexion sur les principaux dispositifs constitutifs du cyberpunk – la dystopie et la virtualité – dans les discours (post)identitaires en Amérique Latine. Représentation presque mimétique de l’espace socioculturel et historique latino-américain à travers la violence et la répression politique, militaire, ethnique ou sexuelle, la dystopie est un moyen d’articuler certaines figures spatiales aux mythes nationaux et à la politique identitaire dans le contexte de la mondialisation. Cette dernière réalité socioculturelle, ainsi que l’idéologie esthétique que véhicule celle-ci à travers le cyberpunk, crée un conflit avec ces discours identitaires nationaux, conflit qui est accentué ou dissous par la représentation de la réalité virtuelle. La réalité virtuelle, comprise ici comme la direction que le récit prend pour défaire ou consolider la figure dystopique, mène à réfléchir également sur les enjeux de la (post)identité. Penser à une (post)identité (en gardant bien à l’esprit cette parenthèse) à travers le cyberpunk signifie poser une question sur la résistance au passé identitaire des mythes nationaux, au présent de la mondialisation culturelle, et aux discours post-humanistes qui semblent marquer le futur. À l’appui de travaux sur la dystopie et la réalité virtuelle dans le cyberpunk anglo-américain, ainsi que des études culturelles latino-américaines, je parcourrai un corpus composé des romans écrits entre 1990 et 2005. Ce corpus comprendra La Primera Calle de la Soledad (1993) de Gerardo Horacio Porcayo, Santa Clara Poltergeist (1991) de Fausto Fawcett, Ygdrasil (2005) de Jorge Baradit, et les films argentins No muera sin decirme adónde vas (1992) d’Eliseo Subiela et La sonámbula (1998) de Fernando Spiner. Dans ces oeuvres, la dystopie se configure aux possibilités narratives de la virtualité et traverse des thématiques identitaires comme les mythes sexuels et nationaux, la mémoire et le traumatisme ainsi que les projets utopiques des minorités.
Resumo:
Thèse réalisée en cotutelle avec l'Université Paris IV-Sorbonne.
Resumo:
Peu importe la discipline qui l’appréhende, de la médecine humorale à la psychanalyse aujourd’hui, de l’histoire de l’art à la philosophie, la mélancolie se définit par un manque. S’il ne succombe pas à l’apathie, le mélancolique s’efforcera de pallier cette insuffisance par ses activités intellectuelles et artistiques : la mélancolie est carence et génie. La mélancolie travaille : elle compose avec l’absence. De quel ordre est ce manque ? Dans les écrits savants et les œuvres visuelles, la mélancolie a l’image en défaut : un souvenir ou une représentation juste, idéale. La mélancolie ne donne rien à voir sinon ce rapport à l’image, ce travail de mise en ordre et de mise en œuvre que l’on résume sous les noms « intellection » et « création ». La mélancolie est formaliste : elle cherche un modèle, une représentation, un nom, la forme d’une narration. Peu d’œuvres se prêtent à l’étude du génie de la mélancolie comme celle de Roland Barthes (1915-1980). Critique, ce corpus questionne la mélancolie de la forme et du sens. Écrite, cette œuvre donne à lire une figure de la mélancolie qui diffère selon ce qui lui manque. Toujours, la mélancolie compose avec l’absence de l’image. Cache de l’écriture, la photographie a été utilisée comme image du réel et du souvenir. L’image photographique participe d’une quête théorique en même temps qu’elle donne forme à la mélancolie de l’écriture. Avec la photographie, la mélancolie apparaît à la ville (L’empire des signes), au miroir (Roland Barthes par Roland Barthes), en amour (Fragments d’un discours amoureux) et au tombeau (La chambre claire). En figurant ce qui échappe à la littérature, la photographie ordonne autour d’elle une narration mélancolique. Ainsi la fragmentation, la collection, la spécularisation, l’investigation et la formalisation, sont autant d’opérations qui caractérisent la poétique narrative mise en place dans l’œuvre de Roland Barthes. Dans ces opérations, nous voyons également un modèle de la mélancolie du processus de création.
Resumo:
L’idée d’une égalité souveraine apparaît en même temps que le système international multilatéral. Bien que l’égalité souveraine soit consacrée explicitement dans la Charte des Nations Unies, le principe reste indéfini. Cette étude propose une définition de l’égalité souveraine en trois facettes : l’égalité formelle, l’égalité législative et l’égalité existentielle. Suite à l’examen des trois dimensions de l’égalité souveraine, une conception stricte de l’égalité souveraine ne peut être soutenue puisque toutes les facettes sont atteintes d’une relativité soit par la légalisation de l’hégémonie, par la bifurcation de l’ordre juridique international, la représentation inégale au sein des institutions multilatérales ou par l’anti-pluralisme. Bref, l’examen de chacune des facettes du principe de l’égalité souveraine démontre que l’égalité souveraine est une fiction juridique. Le principe de l’égalité souveraine peut difficilement être justifié par rapport à la réalité de la société internationale. Il demeure néanmoins utile, ne serait-ce que pour freiner le pouvoir des Grandes Puissances et se poser comme un idéal à atteindre.
Resumo:
ARTICLE 1 : RÉSUMÉ Amputation traumatique: Une étude de cas laotien sur l’indignation et l’injustice. La culture est un contexte essentiel à considérer pour produire un diagnostic et un plan d’intervention psychiatrique. Une perspective culturelle met en relief le contexte social dans lequel les symptômes émergent, et comment ils sont interprétés et gérés par la personne atteinte. Des études ethnoculturelles sur les maladies nous suggèrent que la plupart des gens nous donnent des explications pour leurs symptômes qui ont un fondement culturel. Bien que ces explications contredisent la théorie biomédicale, elles soulagent la souffrance des patients et leur permettent de donner une signification à cette dernière. L’exploration des caractéristiques, contextes et antécédents des symptômes permet au patient de les communiquer au clinicien qui pourrait avoir une explication différente de sa maladie. Cette étude de cas permet de montrer comment le Guide pour Formulation Culturelle du DSM-IV (The DSM-IV Outline for Cultural Formulation) permet aux cliniciens de solliciter un récit du patient en lien avec son expérience de la maladie. Notre étude examine l’utilisation par un patient laotien de « l’indignation sociale » (« Khuâm khum khang ») comme le modèle explicatif culturel de son problème malgré le diagnostic de trouble de stress post-traumatique qui lui fut attribué après une amputation traumatique. L’explication culturelle de son problème a permis au patient d’exprimer la signification personnelle et collective à sa colère et sa frustration, émotions qu’il avait réprimées. Cet idiome culturel lui a permis d’exprimer sa détresse et de réfléchir sur le système de soins de santé et, plus précisément, le contexte dans lequel les symptômes et leurs origines sont racontés et évalués. Cette représentation laotienne a aussi permis aux cliniciens de comprendre des expériences et les explications du client, autrement difficiles à situer dans un contexte biomédical et psychiatrique Euro-américain. Cette étude démontre comment il est possible d’améliorer les interactions entre cliniciens et patients et dès lors la qualité des soins par la compréhension de la perspective du patient et l’utilisation d’une approche culturelle. Mots clés: Culture, signification, idiome culturel, modèle explicatif, Guide pour Formulation culturelle du DSM-IV, indignation sociale, interaction entre patient et intervenant. ARTICLE 2 : RÉSUMÉ Impact de l’utilisation du Guide pour la formulation culturelle du DSM-IV sur la dynamique de conférences multidisciplinaires en santé mentale. La croissance du pluralisme culturel en Amérique du nord a obligé la communauté oeuvrant en santé mentale d’adopter une sensibilité culturelle accrue dans l’exercice de leur métier. Les professionnels en santé mentale doivent prendre conscience du contexte historique et social non seulement de leur clientèle mais également de leur propre profession. Les renseignements exigés pour les soins professionnels proviennent d’ évaluations cliniques. Il faut examiner ces informations dans un cadre culturellement sensible pour pouvoir formuler une évaluation des cas qui permet aux cliniciens de poser un diagnostic juste et précis, et ce, à travers les frontières culturelles du patient aussi bien que celles du professionnel en santé mentale. Cette situation a suscité le développement du Guide pour la formulation culturelle dans la 4ième édition du Manuel diagnostique et statistique des troubles mentaux américain (Diagnostic and Statistical Manual of Mental Disorders (4th ed., DSM-IV) de l’Association psychiatrique américaine. Ce guide est un outil pour aider les cliniciens à obtenir des informations de nature culturelle auprès du client et de sa famille afin de guider la production des soins en santé mentale. L’étude vise l’analyse conversationnelle de la conférence multidisciplinaire comme contexte d’utilisation du Guide pour la formulation culturelle qui sert de cadre dans lequel les pratiques discursives des professionnels de la santé mentale évoluent. Utilisant la perspective théorique de l’interactionnisme symbolique, l’étude examine comment les diverses disciplines de la santé mentale interprètent et conceptualisent les éléments culturels et les implications de ce cadre pour la collaboration interdisciplinaire dans l’évaluation, l’élaboration de plans de traitement et des soins. Mots clé: Guide pour Formulation culturelle – Santé mentale – Psychiatrie transculturelle – Analyse conversationnelle – Interactionnisme symbolique
Resumo:
Dans ce mémoire, je compte étudier la lecture représentée dans l’œuvre de Michel Houellebecq. Mon travail sera divisé en deux parties. D’abord, je m’attacherai aux figures de lecteurs dans La possibilité d’une île et dans les autres romans de Houellebecq. Je verrai alors comment la lecture est incarnée dans les romans et quelles sont les fonctions des personnages-lecteurs. Par exemple, j’examinerai comment les personnages s’expriment sur la littérature dans La possibilité d’une île. Je compte pour ce faire utiliser les concepts de « liseur », de « lu » et de « lectant » proposés par Michel Picard dans La lecture comme jeu, mais dans le sens que leur donne Marcel Goulet dans ses travaux. La deuxième partie se centrera sur un « lecteur » particulièrement important : Houellebecq lui-même. Adoptant la définition de l’intertextualité donnée par Gérard Genette dans Palimpsestes, je me concentrerai uniquement sur les traces explicites d’autres textes dans La possibilité d’une île. Je me concentrerai d’abord sur les auteurs fréquemment cités, ceux dont Houellebecq se réclame ou dont il s’écarte. Je me questionnerai ensuite sur le rapport souvent négatif de Houellebecq avec la littérature du passé, pour essayer d’y voir une représentation de cette lecture critique à laquelle l’auteur tente de nous initier. Le travail sur l’intertextualité servira à identifier ce que Pierre Bayard nomme la « bibliothèque intérieure » de l’auteur et à questionner son rapport à celle-ci.
Resumo:
À très peu de philosophes l’histoire de la pensée occidentale a accordé une place aussi significative qu’à Socrate : nous apprenons tout naturellement à l’édifier comme héros de la rationalité et à reconnaître en lui la figure même du philosophe critique. À plusieurs égards, cette représentation élogieuse nous paraît justifiée, bien que, d’un autre point de vue, elle puisse nous faire sombrer dans la confusion, dès lors que notre regard porte simultanément, et comme pour produire un contraste, sur l’image d’un Socrate se soumettant au daimonion, son étrange signe divin. Comment pouvons-nous justifier, à partir du corpus platonicien, à la fois l’engagement de Socrate vis-à-vis de la rationalité et sa soumission à un phénomène en apparence irrationnel ? De cette question troublante est née la présente étude qui se consacre donc au problème de l’articulation entre le rapport de Socrate aux dieux et son rapport à la raison critique. Plus précisément, nous avons cherché à déterminer s’il existait, sur le plan épistémologique, une hiérarchie entre le daimonion et la méthode d’investigation rationnelle propre à Socrate, l’elenchos. Une telle étude exégétique nécessitait, dans un premier temps, une analyse systématique et approfondie des quelques passages sur le signe divin. Nous avons ensuite exposé deux solutions paradigmatiques au problème du double engagement contradictoire de Socrate, celle de G. Vlastos ainsi que celle de T.C. Brickhouse et N.D. Smith. Enfin, nous avons augmenté cette seconde partie d’un examen spécifique du Phèdre et du Timée, de même que d’un survol des modes de divination pour satisfaire un triple objectif : situer le signe divin en regard de la mantique traditionnelle, déterminer le rôle attribué par Platon à la raison dans le processus divinatoire, et être ainsi en mesure de trancher notre question principale.
Resumo:
Soit G un groupe algébrique semi-simple sur un corps de caractéristique 0. Ce mémoire discute d'un théorème d'annulation de la cohomologie supérieure du faisceau D des opérateurs différentiels sur une variété de drapeaux de G. On démontre que si P est un sous-groupe parabolique de G, alors H^i(G/P,D)=0 pour tout i>0. On donne en fait trois preuves indépendantes de ce théorème. La première preuve est de Hesselink et n'est valide que dans le cas où le sous-groupe parabolique est un sous-groupe de Borel. Elle utilise un argument de suites spectrales et le théorème de Borel-Weil-Bott. La seconde preuve est de Kempf et n'est valide que dans le cas où le radical unipotent de P agit trivialement sur son algèbre de Lie. Elle n'utilise que le théorème de Borel-Weil-Bott. Enfin, la troisième preuve est attribuée à Elkik. Elle est valide pour tout sous-groupe parabolique mais utilise le théorème de Grauert-Riemenschneider. On présente aussi une construction détaillée du faisceau des opérateurs différentiels sur une variété.
Resumo:
Cette thèse porte sur l’évaluation de la cohérence du réseau conceptuel démontré par des étudiants de niveau collégial inscrits en sciences de la nature. L’évaluation de cette cohérence s’est basée sur l’analyse des tableaux de Burt issus des réponses à des questionnaires à choix multiples, sur l’étude détaillée des indices de discrimination spécifique qui seront décrits plus en détail dans le corps de l’ouvrage et sur l’analyse de séquences vidéos d’étudiants effectuant une expérimentation en contexte réel. Au terme de ce projet, quatre grands axes de recherche ont été exploré. 1) Quelle est la cohérence conceptuelle démontrée en physique newtonienne ? 2) Est-ce que la maîtrise du calcul d’incertitude est corrélée au développement de la pensée logique ou à la maîtrise des mathématiques ? 3) Quelle est la cohérence conceptuelle démontrée dans la quantification de l’incertitude expérimentale ? 4) Quelles sont les procédures concrètement mise en place par des étudiants pour quantifier l’incertitude expérimentale dans un contexte de laboratoire semi-dirigé ? Les principales conclusions qui ressortent pour chacun des axes peuvent se formuler ainsi. 1) Les conceptions erronées les plus répandues ne sont pas solidement ancrées dans un réseau conceptuel rigide. Par exemple, un étudiant réussissant une question sur la troisième loi de Newton (sujet le moins bien réussi du Force Concept Inventory) montre une probabilité à peine supérieure de réussir une autre question sur ce même sujet que les autres participants. De nombreux couples de questions révèlent un indice de discrimination spécifique négatif indiquant une faible cohérence conceptuelle en prétest et une cohérence conceptuelle légèrement améliorée en post-test. 2) Si une petite proportion des étudiants ont montré des carences marquées pour les questions reliées au contrôle des variables et à celles traitant de la relation entre la forme graphique de données expérimentales et un modèle mathématique, la majorité des étudiants peuvent être considérés comme maîtrisant adéquatement ces deux sujets. Toutefois, presque tous les étudiants démontrent une absence de maîtrise des principes sous-jacent à la quantification de l’incertitude expérimentale et de la propagation des incertitudes (ci-après appelé métrologie). Aucune corrélation statistiquement significative n’a été observée entre ces trois domaines, laissant entendre qu’il s’agit d’habiletés cognitives largement indépendantes. Le tableau de Burt a pu mettre en lumière une plus grande cohérence conceptuelle entre les questions de contrôle des variables que n’aurait pu le laisser supposer la matrice des coefficients de corrélation de Pearson. En métrologie, des questions équivalentes n’ont pas fait ressortir une cohérence conceptuelle clairement démontrée. 3) L’analyse d’un questionnaire entièrement dédié à la métrologie laisse entrevoir des conceptions erronées issues des apprentissages effectués dans les cours antérieurs (obstacles didactiques), des conceptions erronées basées sur des modèles intuitifs et une absence de compréhension globale des concepts métrologiques bien que certains concepts paraissent en voie d’acquisition. 4) Lorsque les étudiants sont laissés à eux-mêmes, les mêmes difficultés identifiées par l’analyse du questionnaire du point 3) reviennent ce qui corrobore les résultats obtenus. Cependant, nous avons pu observer d’autres comportements reliés à la mesure en laboratoire qui n’auraient pas pu être évalués par le questionnaire à choix multiples. Des entretiens d’explicitations tenus immédiatement après chaque séance ont permis aux participants de détailler certains aspects de leur méthodologie métrologique, notamment, l’emploi de procédures de répétitions de mesures expérimentales, leurs stratégies pour quantifier l’incertitude et les raisons sous-tendant l’estimation numérique des incertitudes de lecture. L’emploi des algorithmes de propagation des incertitudes a été adéquat dans l’ensemble. De nombreuses conceptions erronées en métrologie semblent résister fortement à l’apprentissage. Notons, entre autres, l’assignation de la résolution d’un appareil de mesure à affichage numérique comme valeur de l’incertitude et l’absence de procédures d’empilement pour diminuer l’incertitude. La conception que la précision d’une valeur numérique ne peut être inférieure à la tolérance d’un appareil semble fermement ancrée.
Resumo:
L'utilisation des méthodes formelles est de plus en plus courante dans le développement logiciel, et les systèmes de types sont la méthode formelle qui a le plus de succès. L'avancement des méthodes formelles présente de nouveaux défis, ainsi que de nouvelles opportunités. L'un des défis est d'assurer qu'un compilateur préserve la sémantique des programmes, de sorte que les propriétés que l'on garantit à propos de son code source s'appliquent également au code exécutable. Cette thèse présente un compilateur qui traduit un langage fonctionnel d'ordre supérieur avec polymorphisme vers un langage assembleur typé, dont la propriété principale est que la préservation des types est vérifiée de manière automatisée, à l'aide d'annotations de types sur le code du compilateur. Notre compilateur implante les transformations de code essentielles pour un langage fonctionnel d'ordre supérieur, nommément une conversion CPS, une conversion des fermetures et une génération de code. Nous présentons les détails des représentation fortement typées des langages intermédiaires, et les contraintes qu'elles imposent sur l'implantation des transformations de code. Notre objectif est de garantir la préservation des types avec un minimum d'annotations, et sans compromettre les qualités générales de modularité et de lisibilité du code du compilateur. Cet objectif est atteint en grande partie dans le traitement des fonctionnalités de base du langage (les «types simples»), contrairement au traitement du polymorphisme qui demande encore un travail substantiel pour satisfaire la vérification de type.
Resumo:
Thèse réalisée en cotutelle avec la faculté de droit de l'Université d'Orléans en France.
Resumo:
Cette thèse envisage un ensemble de méthodes permettant aux algorithmes d'apprentissage statistique de mieux traiter la nature séquentielle des problèmes de gestion de portefeuilles financiers. Nous débutons par une considération du problème général de la composition d'algorithmes d'apprentissage devant gérer des tâches séquentielles, en particulier celui de la mise-à-jour efficace des ensembles d'apprentissage dans un cadre de validation séquentielle. Nous énumérons les desiderata que des primitives de composition doivent satisfaire, et faisons ressortir la difficulté de les atteindre de façon rigoureuse et efficace. Nous poursuivons en présentant un ensemble d'algorithmes qui atteignent ces objectifs et présentons une étude de cas d'un système complexe de prise de décision financière utilisant ces techniques. Nous décrivons ensuite une méthode générale permettant de transformer un problème de décision séquentielle non-Markovien en un problème d'apprentissage supervisé en employant un algorithme de recherche basé sur les K meilleurs chemins. Nous traitons d'une application en gestion de portefeuille où nous entraînons un algorithme d'apprentissage à optimiser directement un ratio de Sharpe (ou autre critère non-additif incorporant une aversion au risque). Nous illustrons l'approche par une étude expérimentale approfondie, proposant une architecture de réseaux de neurones spécialisée à la gestion de portefeuille et la comparant à plusieurs alternatives. Finalement, nous introduisons une représentation fonctionnelle de séries chronologiques permettant à des prévisions d'être effectuées sur un horizon variable, tout en utilisant un ensemble informationnel révélé de manière progressive. L'approche est basée sur l'utilisation des processus Gaussiens, lesquels fournissent une matrice de covariance complète entre tous les points pour lesquels une prévision est demandée. Cette information est utilisée à bon escient par un algorithme qui transige activement des écarts de cours (price spreads) entre des contrats à terme sur commodités. L'approche proposée produit, hors échantillon, un rendement ajusté pour le risque significatif, après frais de transactions, sur un portefeuille de 30 actifs.
Resumo:
L'administration fédérale canadienne et la Commission européenne ont construit, dans le courant des années 2000, deux réseaux de Systèmes d'informations géographiques (SIG) : le Système national d'information forestière au Canada, et l'Infrastructure d'information géographique dans la Communauté européenne. Ces SIG permettent le traitement géographique de données sociales et environnementales ainsi que leur représentation sur des cartes. Nous appréhendons ces deux réseaux de SIG sous l'angle de leur valeur heuristique : leur analyse nous permet d'étudier les configurations institutionnelles dans lesquelles ils ont été développés, c'est-à-dire, dans ces cas précis, ce qu'il est convenu d'appeler la « gouvernance ». Les SIG sont des instruments de mesure et de représentation de certains phénomènes : ils appartiennent à la classe des instruments d'objectivation. En tant qu'instruments d'objectivation, ils nous permettent de discuter deux éléments théoriques de la « gouvernance » : le rapport entre les administrations centrales et les administrations locales ; le rapport entre les administrations étatiques et les organisations non-étatiques. A travers cette discussion, nous montrons d'une part que la réarticulation de paliers de gouvernement différents ne signifie pas, comme cela a pu être écrit, un retrait de l'administration centrale au profit des administrations locales, mais au contraire une manière de contrôler plus étroitement celles-ci. Nous montrons d'autre part que cette renégociation des rapports entre les administrations centrales et locales ne s'accompagne pas, en pratique, d’une renégociation des rapports entre administrations étatiques et organisations non-étatiques. En révélant que les données non-étatiques ne sont pas intégrées dans les réseaux de SIG étatiques, nous relativisons les théories qui voient dans la « gouvernance » un mode de gouvernement ouvert aux organisations non-étatiques. Cela nous conduit à approfondir la piste qui envisage les instruments étatiques d'objectivation comme des moyens d'écarter de l'objectivation des phénomènes sociaux ou naturels les éléments qui contredisent l'action gouvernementale. Cette exégèse politique de deux ensembles de programmes informatiques particuliers – les SIG – nous amène, en conclusion, à proposer de considérer certains programmes informatiques comme des institutions politiques.
Resumo:
L'amélioration de la maitrise du français langue première chez les élèves du primaire au Québec dépend de plusieurs facteurs. L'enseignant peut jouer un rôle dans ce processus, sa formation universitaire lui fournissant les connaissances nécessaires afin d'encadrer le développement des compétences langagières de l'élève. Une de ces compétences joue un rôle privilégié dans l'utilisation et la maitrise de la langue, il s'agit de la compétence lexicale, la capacité à comprendre et à utiliser les unités du lexique, aussi bien à l'oral qu'à l'écrit. Afin d'encadrer le développement de la compétence lexicale en français langue première des élèves du primaire, les enseignants doivent eux-mêmes posséder un bon niveau de compétence lexicale, mais aussi détenir un certain nombre de connaissances sur le fonctionnement du lexique lui-même, c'est-à-dire des connaissances métalexicales. Le référentiel québécois de la profession enseignante (MEQ, 2001b) ne détaille pas les connaissances métalexicales que doit posséder l'enseignant pour mener les tâches associées à ses activités d'enseignement/apprentissage du lexique. En outre, la plupart des universités québécoises n'offrent pas de cours dédiés explicitement à la didactique du lexique. Pourtant, ce sont dans les cours de didactique que sont dispensées les connaissances théoriques et pratiques nécessaires au futur enseignant pour assumer les tâches de planification et de pilotage des activités d'apprentissage et d'évaluation des compétences des élèves. La relative absence de cours de didactique du lexique en formation initiale pourrait s'expliquer par le fait qu'il s'agit d'une discipline encore jeune dont les fondements théoriques et pratiques sont en cours de développement. Cette thèse en didactique du français langue première s’intéresse donc aux contenus linguistiques de référence de la didactique du lexique, ainsi qu’à la formation des maitres au primaire dans cette même discipline. Le travail de recherche effectué afin de tenter de remédier au problème soulevé a permis la réalisation de deux objectifs complémentaires. Le premier a consisté en la construction d’une ontologie des savoirs lexicologiques, qui permet de représenter à l’intérieur d’une hiérarchie de notions l’ensemble des connaissances disciplinaires de référence de la didactique du lexique. Cette représentation a ensuite été utilisée pour spécifier et structurer les contenus d’un module de cours en didactique du lexique visant le développement des connaissances métalexicales chez les futurs enseignants du primaire au Québec. L’ontologie et le module de cours produits ont été évalués et validés par des experts de chacun des domaines concernés. L’évaluation de l’ontologie a permis de vérifier la méthode de construction de celle-ci, ainsi que différents aspects relatifs à la structuration des concepts dans l’ontologie. L’évaluation du module de cours a quant à elle montré que les contenus de cours étaient pertinents, les méthodes pédagogiques employées appropriées et le matériel de cours développé bien conçu. Cela nous permet d'affirmer que le module de cours en didactique du lexique se présente comme un apport intéressant à la formation des futurs enseignants du primaire en français langue première au Québec. La recherche dans son ensemble présente enfin une contribution pertinente à la didactique du lexique, son caractère original résidant entre autres dans le fait d’avoir développé un mécanisme d’exploitation d’une base de connaissances (ontologie des savoirs lexicologiques) pour la conception didactique (module de cours en didactique du lexique).