485 resultados para Objet culturel


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La version intégrale de cette thèse est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (www.bib.umontreal.ca/MU).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire présente un patron d’architecture permettant, dans un contexte orientéobjet, l’exploitation d’objets appartenant simultanément à plusieurs hiérarchies fonctionnelles. Ce patron utilise un reasoner basé sur les logiques de description (web sémantique) pour procéder à la classification des objets dans les hiérarchies. La création des objets est simplifiée par l’utilisation d’un ORM (Object Relational Mapper). Ce patron permet l’utilisation effective du raisonnement automatique dans un contexte d’applications d’entreprise. Les concepts requis pour la compréhension du patron et des outils sont présentés. Les conditions d’utilisation du patron sont discutées ainsi que certaines pistes de recherche pour les élargir. Un prototype appliquant le patron dans un cas simple est présenté. Une méthodologie accompagne le patron. Finalement, d’autres utilisations potentielles des logiques de description dans le même contexte sont discutées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les changements sont faits de façon continue dans le code source des logiciels pour prendre en compte les besoins des clients et corriger les fautes. Les changements continus peuvent conduire aux défauts de code et de conception. Les défauts de conception sont des mauvaises solutions à des problèmes récurrents de conception ou d’implémentation, généralement dans le développement orienté objet. Au cours des activités de compréhension et de changement et en raison du temps d’accès au marché, du manque de compréhension, et de leur expérience, les développeurs ne peuvent pas toujours suivre les normes de conception et les techniques de codage comme les patrons de conception. Par conséquent, ils introduisent des défauts de conception dans leurs systèmes. Dans la littérature, plusieurs auteurs ont fait valoir que les défauts de conception rendent les systèmes orientés objet plus difficile à comprendre, plus sujets aux fautes, et plus difficiles à changer que les systèmes sans les défauts de conception. Pourtant, seulement quelques-uns de ces auteurs ont fait une étude empirique sur l’impact des défauts de conception sur la compréhension et aucun d’entre eux n’a étudié l’impact des défauts de conception sur l’effort des développeurs pour corriger les fautes. Dans cette thèse, nous proposons trois principales contributions. La première contribution est une étude empirique pour apporter des preuves de l’impact des défauts de conception sur la compréhension et le changement. Nous concevons et effectuons deux expériences avec 59 sujets, afin d’évaluer l’impact de la composition de deux occurrences de Blob ou deux occurrences de spaghetti code sur la performance des développeurs effectuant des tâches de compréhension et de changement. Nous mesurons la performance des développeurs en utilisant: (1) l’indice de charge de travail de la NASA pour leurs efforts, (2) le temps qu’ils ont passé dans l’accomplissement de leurs tâches, et (3) les pourcentages de bonnes réponses. Les résultats des deux expériences ont montré que deux occurrences de Blob ou de spaghetti code sont un obstacle significatif pour la performance des développeurs lors de tâches de compréhension et de changement. Les résultats obtenus justifient les recherches antérieures sur la spécification et la détection des défauts de conception. Les équipes de développement de logiciels doivent mettre en garde les développeurs contre le nombre élevé d’occurrences de défauts de conception et recommander des refactorisations à chaque étape du processus de développement pour supprimer ces défauts de conception quand c’est possible. Dans la deuxième contribution, nous étudions la relation entre les défauts de conception et les fautes. Nous étudions l’impact de la présence des défauts de conception sur l’effort nécessaire pour corriger les fautes. Nous mesurons l’effort pour corriger les fautes à l’aide de trois indicateurs: (1) la durée de la période de correction, (2) le nombre de champs et méthodes touchés par la correction des fautes et (3) l’entropie des corrections de fautes dans le code-source. Nous menons une étude empirique avec 12 défauts de conception détectés dans 54 versions de quatre systèmes: ArgoUML, Eclipse, Mylyn, et Rhino. Nos résultats ont montré que la durée de la période de correction est plus longue pour les fautes impliquant des classes avec des défauts de conception. En outre, la correction des fautes dans les classes avec des défauts de conception fait changer plus de fichiers, plus les champs et des méthodes. Nous avons également observé que, après la correction d’une faute, le nombre d’occurrences de défauts de conception dans les classes impliquées dans la correction de la faute diminue. Comprendre l’impact des défauts de conception sur l’effort des développeurs pour corriger les fautes est important afin d’aider les équipes de développement pour mieux évaluer et prévoir l’impact de leurs décisions de conception et donc canaliser leurs efforts pour améliorer la qualité de leurs systèmes. Les équipes de développement doivent contrôler et supprimer les défauts de conception de leurs systèmes car ils sont susceptibles d’augmenter les efforts de changement. La troisième contribution concerne la détection des défauts de conception. Pendant les activités de maintenance, il est important de disposer d’un outil capable de détecter les défauts de conception de façon incrémentale et itérative. Ce processus de détection incrémentale et itérative pourrait réduire les coûts, les efforts et les ressources en permettant aux praticiens d’identifier et de prendre en compte les occurrences de défauts de conception comme ils les trouvent lors de la compréhension et des changements. Les chercheurs ont proposé des approches pour détecter les occurrences de défauts de conception, mais ces approches ont actuellement quatre limites: (1) elles nécessitent une connaissance approfondie des défauts de conception, (2) elles ont une précision et un rappel limités, (3) elles ne sont pas itératives et incrémentales et (4) elles ne peuvent pas être appliquées sur des sous-ensembles de systèmes. Pour surmonter ces limitations, nous introduisons SMURF, une nouvelle approche pour détecter les défauts de conception, basé sur une technique d’apprentissage automatique — machines à vecteur de support — et prenant en compte les retours des praticiens. Grâce à une étude empirique portant sur trois systèmes et quatre défauts de conception, nous avons montré que la précision et le rappel de SMURF sont supérieurs à ceux de DETEX et BDTEX lors de la détection des occurrences de défauts de conception. Nous avons également montré que SMURF peut être appliqué à la fois dans les configurations intra-système et inter-système. Enfin, nous avons montré que la précision et le rappel de SMURF sont améliorés quand on prend en compte les retours des praticiens.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le site de la carrière du mont Royal (BjFj-97), découvert en 1993 par Yvon Codère et inventorié en 1997 par l’équipe d’Ethnoscop Inc., constitue une énigme archéologique intéressante pour quiconque s’intéresse à la préhistoire de l’île de Montréal et de sa région adjacente. Lors des activités archéologiques de 1997, quelques idées furent émises quant à son affiliation chronologique et sa nature, suggérant une occupation remontant à l’Archaïque terminal (4000 à 3000 AA) orientée vers l’extraction et la transformation de la cornéenne, une pierre métamorphique résultant de la transformation du substrat rocheux en place suite à des intrusions magmatiques lors du Crétacé qui ont créé les Montérégiennes. Le matériel, comprenant plus de 10 000 déchets de taille et un peu plus de 70 artéfacts divers, ne fît pas l’objet d’analyses poussées hormis la datation approximative du site par un examen sommaire des pointes de projectile. Ce mémoire reprend les données de 1997 et apporte une perspective nouvelle au site en décrivant morphologiquement et technologiquement le débitage de la pierre de façon à comprendre la chaîne opératoire de la cornéenne, une matière peu étudiée, mais fort commune au Québec méridional, appréhender les possibilités de la matière et aborder les questions de datation. L’ensemble du matériel lithique fît l’objet d’une analyse lithique poussée axée sur le débitage et les produits finis et propose la prépondérance de la taille bifaciale, ponctuée par un débitage sur éclat conséquent. L’ensemble des étapes de la chaîne opératoire est présent sur le site de la carrière du mont Royal. La cornéenne est une matière difficile à tailler en raison de son imprévisibilité, liée à la structure même de la matière, menant à un fort taux d’échecs lors de l’élaboration des outils. La datation de l’occupation principale du site pointe vers l’Archaïque terminal, mais le caractère équivoque des diverses classes d’objets rend difficile sa définition absolue, faute d’objets parfaitement diagnostiques. Le site BjFj-97 ressemble grandement à un site homologue en Nouvelle-Angleterre où la cornéenne fût travaillée suivant le même schéma opératoire, suggérant un apparentement culturel possible. La cornéenne abonde et domine dans les assemblages archéologiques de la région montréalaise, substituant ainsi des matières de meilleure qualité absentes régionalement. Leurs correspondances chronologiques transcendent celles établies lors de l’analyse du matériel de la carrière et montrent un étalement chronologiquement plus étendu, de l’Archaïque laurentien au Sylvicole supérieur. La cornéenne se retrouve habituellement sous forme d’outils bifaciaux fonctionnels (bifaces, couteaux et pointes de projectile) de piètre facture et d’outils sur éclats (grattoirs et racloirs) rudimentaires, suggérant une signification strictement utilitaire, le propre des matières de basse qualité. Les modes d’extraction de la cornéenne restent inconnus sur le mont Royal. Le mont Royal est plus qu’un vulgaire point défensif, il constitue la base de la subsistance des populations préhistoriques de jadis où se trouvent les matériaux nécessaires à la taille d’outils de prédation liés à un mode de vie mobile où domine la chasse.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Archipel des Petites Antilles, la Martinique est une société née de la traite transatlantique, de l’esclavage et du colonialisme français. Cette société créole, liée à sa métropole depuis près de quatre siècles, est devenue un département français en 1946, conférant à ses habitants le statut de citoyen français. Dès lors, l’émigration vers son centre, l’Ile-de-France, s’intensifia peu à peu pour s’institutionnaliser au cours des années 1960 grâce à un organisme d’Etat, le BUMIDOM. La présence antillaise en France est aujourd’hui telle, qu’on parle de la métropole comme d’une « troisième île ». Toutefois, on assiste de nos jours à de nouvelles pratiques de mobilités transatlantiques, plurales et multiformes, dont les migrations de retour font partie intégrante. Les acteurs du retour, les dits « retournés » ou « négropolitains », ont témoigné de plusieurs obstacles à l’heure de réintégrer leur terre d’origine. La présente étude entend démontrer cette tendance à considérer le migrant de retour comme un nouveau type d’ « outsider », soit comme un étranger culturel ; manifestation inédite qui dévoile une autre facette de l’altérité à la Martinique ainsi qu’une nouvelle configuration de sa relation postcoloniale avec la République française. Suite à un terrain ethnographique auprès de ces « retournés », et d’une observation participante auprès de la population locale, cette étude entend soumettre les représentations de l’île et de ses habitants à une analyse qualitative et comprendre comment l’expérience en territoire français transformera le migrant, sa façon d’appartenir à la culture martiniquaise et/ou à la culture française. Nous nous livrons ainsi à un examen des représentations et des pratiques des acteurs du retour pour permettre un éclairage novateur sur les nouvelles allégeances identitaires et les nouveaux déterminants de l’altérité à l’intersection de ces deux espaces à la fois proches et distants. Aussi, nous interrogerons comment le prisme du retour s’articule au cas martiniquais. En effet, le retour acquiert une dimension particulière dans le contexte de ces itinéraires de mobilité de « citoyens de couleur » qui expérimentent souvent un double rejet social et ce, sans même s’être écartés de leurs frontières nationales.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Doctorat réalisé en cotutelle avec l'Université Paris Sorbonne. La version intégrale de cette thèse est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (www.bib.umontreal.ca/MU).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse porte sur la capacité à détecter des compagnons de faible intensité en présence de bruit de tavelures dans le contexte de l’imagerie à haute gamme dynamique pour l’astronomie spatiale. On s’intéressera plus particulièrement à l’imagerie spectrale différentielle (ISD) obtenue en utilisant un étalon Fabry-Pérot comme filtre accordable. Les performances d’un tel filtre accordable sont présentées dans le cadre du Tunable Filter Imager (TFI), instrument conçu pour le télescope spatial James Webb (JWST). La capacité de l’étalon à supprimer les tavelures avec ISD est démontrée expérimentalement grâce à un prototype de l’étalon installé sur un banc de laboratoire. Les améliorations de contraste varient en fonction de la séparation, s’étendant d’un facteur 10 pour les séparations supérieures à 11 lambda/D jusqu’à un facteur 60 à 5 lambda/D. Ces résultats sont cohérents avec une étude théorique qui utilise un modèle basé sur la propagation de Fresnel pour montrer que les performances de suppression de tavelures sont limitées par le banc optique et non pas par l’étalon. De plus, il est démontré qu’un filtre accordable est une option séduisante pour l’imagerie à haute gamme dynamique combinée à la technique ISD. Une seconde étude basée sur la propagation de Fresnel de l’instrument TFI et du télescope, a permis de définir les performances de la technique ISD combinée avec un étalon pour l’astronomie spatiale. Les résultats prévoient une amélioration de contraste de l’ordre de 7 jusqu’à 100, selon la configuration de l’instrument. Une comparaison entre ISD et la soustraction par rotation a également été simulée. Enfin, la dernière partie de ce chapitre porte sur les performances de la technique ISD dans le cadre de l’instrument Near-Infrared Imager and Slitless Spectrograph (NIRISS), conçu pour remplacer TFI comme module scientifique à bord du Fine Guidance Sensor du JWST. Cent quatre objets localisés vers la région centrale de la nébuleuse d’Orion ont été caractérisés grâce à un spectrographe multi-objet, de basse résolution et multi-bande (0.85-2.4 um). Cette étude a relevé 7 nouvelles naines brunes et 4 nouveaux candidats de masse planétaire. Ces objets sont utiles pour déterminer la fonction de masse initiale sous-stellaire et pour évaluer les modèles atmosphériques et évolutifs futurs des jeunes objets stellaires et sous-stellaires. Combinant les magnitudes en bande H mesurées et les valeurs d’extinction, les objets classifiés sont utilisés pour créer un diagramme de Hertzsprung-Russell de cet amas stellaire. En accord avec des études antérieures, nos résultats montrent qu’il existe une seule époque de formation d’étoiles qui a débuté il y a environ 1 million d’années. La fonction de masse initiale qui en dérive est en accord avec des études antérieures portant sur d’autres amas jeunes et sur le disque galactique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Pour respecter les droits d’auteur, la version électronique de cette thèse a été dépouillée de ses documents visuels et audio-visuels. La version intégrale de la thèse a été déposée au Service de la gestion des documents et des archives de l'Université de Montréal

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le stéréotype, représentation caricaturale sur un groupe social, est dénoncé tout le temps mais présent partout. Les diverses productions culturelles auxquelles nous sommes quotidiennement confrontés, des émissions télévisées aux articles politiques, du discours quotidien aux films hollywoodiens, participent à reproduire ces représentations caricaturales. La persistance de certaines représentations, non perçues comme stéréotypées, participent à des processus de stéréotypification : par leur récurrence et leur évidence, elles sont posées comme allant de soi, comme le reflet objectif d’une réalité tangible. Sous cette catégorisation qui est parfois questionnée dans la sphère publique, ce n’est pas la validité d’existence de ce classement qui est remise en cause mais la volonté d’appréhender le caractère véritable des qualités essentialistes de ce que l’on regroupe sous une étiquette. Or, le stéréotype, malgré sa capacité à revendiquer une universalité, est le fruit d’un travail culturel, historiquement et politiquement construit. De fait, le stéréotype est un vecteur hégémonique qui peut traduire des tendances idéologiques dominantes sous-jacentes à son expression : il incarne la façon dont sont légitimées et naturalisées ces représentations à un moment donné et dans une conjoncture particulière. Je tenterai de définir théoriquement dans ce mémoire le stéréotype au sein du discours social et plus particulièrement au sein des mediacultures. J’investiguerai sa circulation, son caractère politique, son incidence normative et, par corrolaire, sa fonction hégémonique. Puis, à l’aide d’une analyse intertextuelle critique, je tenterai empiriquement de discerner les stéréotypes et les idéologies qui les sous-tendent au sein de trois comédies romantiques hollywoodiennes. A partir de l’observation de ces productions culturelles de divertissement, ce travail m’amènera à dégager deux idéologies prégnantes - l’idéologie capitaliste et l’idéologie patriarcale -; sous-tendues par un ensemble d’autres idéologies qui, d’une façon ou d’une autre, rejoignent les principales : idéologie de la masculinité, de l’hétérosexualité, d’un idéal socio-économique, etc.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce travail analyse les transformations du Graal en comparant sa représentation dans les romans médiévaux et dans trois textes de théâtre modernes. Le Graal, apparu dans la littérature au Moyen Âge, reste une source d'inspiration pour les écrivains modernes au point de gagner, avec le temps, un statut légendaire. L'objet de prédilection de la littérature arthurienne a évolué de façon significative dès le Moyen Âge, où il reste cependant confiné aux formes narratives. Après le « festival scénique sacré » (Bühnenweihfestspiel), Parsifal, de Wagner présenté en 1882 à Bayreuth, des œuvres plus récentes réactualisent le mythe en cherchant à l'adapter au théâtre. Jean Cocteau, en 1937, dans Les Chevaliers de la Table Ronde, présente un Graal inaccessible, immatériel. En 1948, Julien Gracq, dans Le Roi Pêcheur, inscrit le Graal dans l'opposition entre le profane et le sacré. Jacques Roubaud et Florence Delay, dans les éditions de 1977 et 2005 de Graal Théâtre, optent pour une récriture où les représentations du mythe se côtoient et se confrontent. Ces textes de théâtre modernes, où la représentation du Graal se situe au cœur du projet d'écriture, entrent ainsi en relation directe avec les œuvres médiévales. Ils s'inscrivent dans une redéfinition de l'objet qui se renouvelle sans cesse depuis Le Conte du Graal de Chrétien de Troyes. Dans les trois cas, la représentation du Graal entretient des relations contradictoires de filiation et de rupture avec la littérature arthurienne de l'époque médiévale. L'hypothèse principale de cette recherche se situe dans la problématique de la récriture comme transformation d'un héritage. Plus précisément, il sera question de comprendre comment la représentation du Graal dans les textes de théâtre pose problème et comment cette question est modulée, travaillée par les auteurs en termes rhétoriques, stylistiques et dramaturgiques. L'utilisation de la parodie, d'anachronismes et de voix dramatiques nouvelles, par exemple, permet aux auteurs modernes de revisiter et de changer le rapport à l'objet. Le Graal se redéfinit dans des contextes historiques et dans un genre distincts de leur source du Moyen Âge.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La complexité de la tâche qu’est la lecture du français en interaction avec les caractéristiques de la personne qui a un retard de deux ans en lecture, la population cible de cette recherche, place cette dernière en situation d’échec. Tous les processus impliqués dans l’acte de lire en interaction avec ces caractéristiques induisent des échecs et des retards d’apprentissage de la lecture. L’enseignant, qui souhaite utiliser un manuel scolaire tout en intégrant un élève de 3e année ne sachant toujours pas lire, a deux choix : lui offrir un manuel de 1re année, un manuel de 3e année ou adapter lui-même son matériel. Si l’enseignant lui remet un manuel de 1re année, l’élève vit des réussites, mais les thèmes sont infantilisants. Si l’enseignant remet un manuel de 3e année à ce même élève, les thèmes ne sont pas infantilisants, mais le niveau en lecture place ce dernier systématiquement en situation d’échec. Si l’enseignant adapte lui-même le matériel, l’entreprise est grande en charge de travail pour ce dernier. En réponse à ce dilemme, le Groupe DÉFI Accessibilité (GDA) a conçu des manuels scolaires adaptés. Ils sont, à première vue, identiques à la version originale Signet (3e année), mêmes thèmes, mêmes titres, mêmes numéros de pages, mêmes illustrations et mêmes réponses aux deux premières questions de chaque page, mais les textes sont simplifiés afin de permettre la lecture à l’élève de 3e année qui a deux ans de retard dans cette matière. En accord avec une stratégie de design inclusif, la simplification des manuels par le GDA a été réalisée en fonction des caractéristiques d’un groupe de référence reconnu pour avoir de grandes difficultés d’apprentissage de la lecture, soit des élèves qui ont des incapacités intellectuelles (Langevin, Rocque, Ngongang et Chaghoumi, 2012). L’objet de cette thèse est le calcul de la productivité et de l’efficience de ces manuels scolaires adaptés auprès d’élèves qui ont deux années de retard en lecture, la population cible. La méthodologie utilisée pour cette recherche est l’analyse de la valeur pédagogique, une méthode systématique de développement et d’évaluation de produits, procédés ou services, adaptée de l’ingénierie. Cette recherche a pour objet la troisième et dernière phase de l’analyse de la valeur pédagogique, soit l’évaluation des manuels scolaires adaptés. En analyse de la valeur pédagogique, comme pour cette recherche, la mise à l’essai a deux objectifs : comparer le prototype créé au cahier des charges fonctionnel regroupant toutes les fonctions que devrait remplir le produit pour répondre aux besoins de ses utilisateurs potentiels et calculer la productivité/efficience. Puisqu’il s’agit d’une première mise à l’essai, un troisième objectif est ajouté, soit la proposition de pistes d’amélioration au prototype de manuels scolaires adaptés. La mise à l’essai s’est échelonnée sur six mois. L’échantillon regroupe quatre enseignantes de 3e année, deux en classes spéciales et deux en classes régulières. Ces dernières enseignent à 32 élèves utilisateurs des manuels scolaires adaptés : six sont dyslexiques, quatre ont une connaissance insuffisante de la langue française, un a un trouble envahissant du développement avec incapacités intellectuelles et 21 ont des incapacités intellectuelles légères. Les résultats sont présentés sous la forme de trois articles. Les quatre enseignantes ont confirmé la réponse des manuels scolaires adaptés au cahier des charges fonctionnel. De plus, la phase de conception a été jugée efficiente et la phase d’utilisation productive. Il n’y a pas de modification à faire aux manuels scolaires adaptés. Par contre, le guide d’utilisateur doit être modifié, puisque l’outil n’a pas été utilisé tel qu’il était prévu par l’équipe de conception.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Notre étude a pour objet la conception, la synthèse ainsi que l’étude structurale d’architectures supramoléculaires obtenues par auto-assemblage, en se basant sur les concepts de la tectonique moléculaire. Cette branche de la chimie supramoléculaire s’occupe de la conception et la synthèse de molécules organiques appelées tectons, du grec tectos qui signifie constructeur. Le tecton est souvent constitué de sites de reconnaissance branchés sur un squelette bien choisi. Les sites de reconnaissance orientés par la géométrie du squelette peuvent participer dans des interactions intermoléculaires qui sont suffisamment fortes et directionnelles pour guider la topologie du cristal résultant. La stratégie envisagée utilise des processus d'auto-assemblage engageant des interactions réversibles entre les tectons. L’auto-assemblage dirigé par de fortes interactions intermoléculaires directionnelles est largement utilisé pour fabriquer des matériaux dont les composants doivent être positionnés en trois dimensions (3D) d'une manière prévisible. Cette stratégie peut également être utilisée pour contrôler l’association moléculaire en deux dimensions (2D), ce qui permet la construction de monocouches organisées et prédéterminées sur différents types des surfaces, tels que le graphite.Notre travail a mis l’accent sur le comportement de la fonction amide comme fonction de reconnaissance qui est un analogue du groupement carboxyle déjà utilisé dans plusieurs études précédentes. Nous avons étudié le comportement d’une série de composés contenant un noyau plat conçu pour faciliter l'adsorption sur le graphite et modifiés par l'ajout de groupes amide pour favoriser la formation de liaisons hydrogène entre les molécules ainsi adsorbées. La capacité de ces composés à former de monocouches organisées à l’échelle moléculaire en 2D a été examinée par microscopie à effet tunnel, etleur organisation en 3D a également été étudiée par cristallographie aux rayons X. Dans notre étude, nous avons systématiquement modifié la géométrie moléculaire et d'autres paramètres afin d'examiner leurs effets sur l'organisation moléculaire. Nos résultats suggèrent que les analyses structurales combinées en 2D et 3D constituent un important atout dans l'effort pour comprendre les interactions entre les molécules adsorbées et l’effet de l’interaction avec la surface du substrat.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse porte sur les phénomènes critiques survenant dans les modèles bidimensionnels sur réseau. Les résultats sont l'objet de deux articles : le premier porte sur la mesure d'exposants critiques décrivant des objets géométriques du réseau et, le second, sur la construction d'idempotents projetant sur des modules indécomposables de l'algèbre de Temperley-Lieb pour la chaîne de spins XXZ. Le premier article présente des expériences numériques Monte Carlo effectuées pour une famille de modèles de boucles en phase diluée. Baptisés "dilute loop models (DLM)", ceux-ci sont inspirés du modèle O(n) introduit par Nienhuis (1990). La famille est étiquetée par les entiers relativement premiers p et p' ainsi que par un paramètre d'anisotropie. Dans la limite thermodynamique, il est pressenti que le modèle DLM(p,p') soit décrit par une théorie logarithmique des champs conformes de charge centrale c(\kappa)=13-6(\kappa+1/\kappa), où \kappa=p/p' est lié à la fugacité du gaz de boucles \beta=-2\cos\pi/\kappa, pour toute valeur du paramètre d'anisotropie. Les mesures portent sur les exposants critiques représentant la loi d'échelle des objets géométriques suivants : l'interface, le périmètre externe et les liens rouges. L'algorithme Metropolis-Hastings employé, pour lequel nous avons introduit de nombreuses améliorations spécifiques aux modèles dilués, est détaillé. Un traitement statistique rigoureux des données permet des extrapolations coïncidant avec les prédictions théoriques à trois ou quatre chiffres significatifs, malgré des courbes d'extrapolation aux pentes abruptes. Le deuxième article porte sur la décomposition de l'espace de Hilbert \otimes^nC^2 sur lequel la chaîne XXZ de n spins 1/2 agit. La version étudiée ici (Pasquier et Saleur (1990)) est décrite par un hamiltonien H_{XXZ}(q) dépendant d'un paramètre q\in C^\times et s'exprimant comme une somme d'éléments de l'algèbre de Temperley-Lieb TL_n(q). Comme pour les modèles dilués, le spectre de la limite continue de H_{XXZ}(q) semble relié aux théories des champs conformes, le paramètre q déterminant la charge centrale. Les idempotents primitifs de End_{TL_n}\otimes^nC^2 sont obtenus, pour tout q, en termes d'éléments de l'algèbre quantique U_qsl_2 (ou d'une extension) par la dualité de Schur-Weyl quantique. Ces idempotents permettent de construire explicitement les TL_n-modules indécomposables de \otimes^nC^2. Ceux-ci sont tous irréductibles, sauf si q est une racine de l'unité. Cette exception est traitée séparément du cas où q est générique. Les problèmes résolus par ces articles nécessitent une grande variété de résultats et d'outils. Pour cette raison, la thèse comporte plusieurs chapitres préparatoires. Sa structure est la suivante. Le premier chapitre introduit certains concepts communs aux deux articles, notamment une description des phénomènes critiques et de la théorie des champs conformes. Le deuxième chapitre aborde brièvement la question des champs logarithmiques, l'évolution de Schramm-Loewner ainsi que l'algorithme de Metropolis-Hastings. Ces sujets sont nécessaires à la lecture de l'article "Geometric Exponents of Dilute Loop Models" au chapitre 3. Le quatrième chapitre présente les outils algébriques utilisés dans le deuxième article, "The idempotents of the TL_n-module \otimes^nC^2 in terms of elements of U_qsl_2", constituant le chapitre 5. La thèse conclut par un résumé des résultats importants et la proposition d'avenues de recherche qui en découlent.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’introduction aux concepts unificateurs dans l’enseignement des mathématiques privilégie typiquement l’approche axiomatique. Il n’est pas surprenant de constater qu’une telle approche tend à une algorithmisation des tâches pour augmenter l’efficacité de leur résolution et favoriser la transparence du nouveau concept enseigné (Chevallard, 1991). Cette réponse classique fait néanmoins oublier le rôle unificateur du concept et n’encourage pas à l’utilisation de sa puissance. Afin d’améliorer l’apprentissage d’un concept unificateur, ce travail de thèse étudie la pertinence d’une séquence didactique dans la formation d’ingénieurs centrée sur un concept unificateur de l’algèbre linéaire: la transformation linéaire (TL). La notion d’unification et la question du sens de la linéarité sont abordées à travers l’acquisition de compétences en résolution de problèmes. La séquence des problèmes à résoudre a pour objet le processus de construction d’un concept abstrait (la TL) sur un domaine déjà mathématisé, avec l’intention de dégager l’aspect unificateur de la notion formelle (Astolfi y Drouin, 1992). À partir de résultats de travaux en didactique des sciences et des mathématiques (Dupin 1995; Sfard 1991), nous élaborons des situations didactiques sur la base d’éléments de modélisation, en cherchant à articuler deux façons de concevoir l’objet (« procédurale » et « structurale ») de façon à trouver une stratégie de résolution plus sûre, plus économique et réutilisable. En particulier, nous avons cherché à situer la notion dans différents domaines mathématiques où elle est applicable : arithmétique, géométrique, algébrique et analytique. La séquence vise à développer des liens entre différents cadres mathématiques, et entre différentes représentations de la TL dans les différents registres mathématiques, en s’inspirant notamment dans cette démarche du développement historique de la notion. De plus, la séquence didactique vise à maintenir un équilibre entre le côté applicable des tâches à la pratique professionnelle visée, et le côté théorique propice à la structuration des concepts. L’étude a été conduite avec des étudiants chiliens en formation au génie, dans le premier cours d’algèbre linéaire. Nous avons mené une analyse a priori détaillée afin de renforcer la robustesse de la séquence et de préparer à l’analyse des données. Par l’analyse des réponses au questionnaire d’entrée, des productions des équipes et des commentaires reçus en entrevus, nous avons pu identifier les compétences mathématiques et les niveaux d’explicitation (Caron, 2004) mis à contribution dans l’utilisation de la TL. Les résultats obtenus montrent l’émergence du rôle unificateur de la TL, même chez ceux dont les habitudes en résolution de problèmes mathématiques sont marquées par une orientation procédurale, tant dans l’apprentissage que dans l’enseignement. La séquence didactique a montré son efficacité pour la construction progressive chez les étudiants de la notion de transformation linéaire (TL), avec le sens et les propriétés qui lui sont propres : la TL apparaît ainsi comme un moyen économique de résoudre des problèmes extérieurs à l’algèbre linéaire, ce qui permet aux étudiants d’en abstraire les propriétés sous-jacentes. Par ailleurs, nous avons pu observer que certains concepts enseignés auparavant peuvent agir comme obstacles à l’unification visée. Cela peut ramener les étudiants à leur point de départ, et le rôle de la TL se résume dans ces conditions à révéler des connaissances partielles, plutôt qu’à guider la résolution.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Selon la théorie de la double hérédité, les processus de transmission sociale des connaissances permettraient aux cultures humaines d'évoluer de manière darwinienne. On parvient à cette conclusion en inférant que, étant donné qu'une analogie profonde peut être établie entre les mécanismes de transmission génétique et ceux de transmission sociale, on devrait non seulement concevoir que les processus cognitifs d'apprentissage social constituent bel et bien un système d'hérédité distinct du système d'hérédité génétique, mais qu’il est aussi légitime, sur la base de cette même analogie, de transférer les concepts explicatifs et outils formels issus de la biologie évolutionnaire et de les adapter à l'étude des cultures humaines en vue de constituer une théorie darwinienne de l'évolution culturelle. Cette analogie de l’hérédité culturelle fait depuis longtemps l'objet de controverses tant au sein de la littérature scientifique que dans les discussions philosophiques. On ne semble pas s'entendre sur la nature même de cette analogie ni non plus sur la force de justification épistémique qu'une telle analogie donnerait à la mise en place d'une théorie darwinienne de l'évolution culturelle. Néanmoins, à travers plus de quarante années de débats, la structure de cette analogie n'a jamais été examinée en détail et on a rarement examiné l'épistémologie des inférences par analogie dans un tel contexte. L'objectif principal de la présente thèse consistera à offrir une première analyse systématique de la nature, de la structure, de la fonction et de la justification épistémique de l'analogie de l'hérédité culturelle, fondement conceptuel de la théorie de la double hérédité. En portant ici une attention particulière à la structure logique de cette analogie, on pourra constater l'ampleur de sa complexité, complexité passant souvent inaperçue dans les critiques de la théorie de la double hérédité. On défendra ici la thèse selon laquelle l'analogie de l'hérédité culturelle est en fait composée de deux analogies constitutives qui, conjointement, ouvrent la voie à la mise en place et à l’organisation d’un programme de recherche visant à mettre au point une théorie darwinienne de l’évolution culturelle.