999 resultados para Cointégration des données de panel
Resumo:
S’il est généralement reconnu que le processus d’institutionnalisation de l’Église s’est accéléré au IVe siècle, certaines de ses étapes nous sont moins connues. Ce mémoire cherche à évaluer l’importance de Jean Chrysostome dans l’émergence de la primauté d’honneur de Constantinople. Après une étude attentive du troisième canon du concile de Constantinople I mise en relation avec l’opinion de trois auteurs contemporains, c’est-à-dire Palladius d’Hélénopolis, Socrate de Constantinople et Sozomène, il ressort de ce travail que l’épiscopat de Jean Chrysostome a favorisé l’implantation de cette prééminence dans l’Église. L’analyse des modalités de la primauté d’honneur de Constantinople montre bien qu’historiquement, les évêques de l’ancienne et de la nouvelle Rome n’ont pas construit leur primat à l’aide des mêmes arguments. L’explicitation de ces éléments ne se veut pas une prise de position dans les débats oecuméniques actuels, mais plutôt un préliminaire permettant une meilleure compréhension des données du problème.
Resumo:
Cette recherche-action vise à déterminer par quels moyens les enseignants de français peuvent contribuer à favoriser le transfert de connaissances grammaticales en situation d’écriture chez leurs élèves de niveau secondaire. Nous avons d’abord constaté que, chez les élèves du secondaire en général, les accords sont plus facilement réussis en contexte d’exercice qu’en contexte de production écrite. Sur la base de propositions didactiques pertinentes concernant l’orthographe grammaticale et/ou le transfert de connaissances, propositions fondées notamment sur une approche inductive, centrée sur le questionnement de l’élève et sur l’analyse de phrases, nous avons conçu et élaboré une séquence didactique portant sur l’accord du participe passé employé avec être ou avec un verbe attributif. Dans un deuxième temps, nous l’avons mise à l’essai auprès d’un groupe d’élèves de troisième secondaire, puis nous en avons vérifié les effets à l’aide d’un prétest et d’un posttest composés respectivement d’un questionnaire, d’un exercice et d’une production écrite. Les résultats révélés par l’analyse des données démontrent l’efficacité de la série de cours. En effet, le taux moyen de réussite des accords en contexte d’exercice passe de 53% à 75%, alors que, pour les productions écrites, il est de 48% avant la série de cours contre 82% après. Les questionnaires recueillis nous portent à attribuer en partie cette forte augmentation du taux de réussite des accords en contexte de production écrite au bon déroulement du processus de transfert grâce au travail effectué en cours de séquence sur les connaissances conditionnelles.
Resumo:
La théorie de l'information quantique étudie les limites fondamentales qu'imposent les lois de la physique sur les tâches de traitement de données comme la compression et la transmission de données sur un canal bruité. Cette thèse présente des techniques générales permettant de résoudre plusieurs problèmes fondamentaux de la théorie de l'information quantique dans un seul et même cadre. Le théorème central de cette thèse énonce l'existence d'un protocole permettant de transmettre des données quantiques que le receveur connaît déjà partiellement à l'aide d'une seule utilisation d'un canal quantique bruité. Ce théorème a de plus comme corollaires immédiats plusieurs théorèmes centraux de la théorie de l'information quantique. Les chapitres suivants utilisent ce théorème pour prouver l'existence de nouveaux protocoles pour deux autres types de canaux quantiques, soit les canaux de diffusion quantiques et les canaux quantiques avec information supplémentaire fournie au transmetteur. Ces protocoles traitent aussi de la transmission de données quantiques partiellement connues du receveur à l'aide d'une seule utilisation du canal, et ont comme corollaires des versions asymptotiques avec et sans intrication auxiliaire. Les versions asymptotiques avec intrication auxiliaire peuvent, dans les deux cas, être considérées comme des versions quantiques des meilleurs théorèmes de codage connus pour les versions classiques de ces problèmes. Le dernier chapitre traite d'un phénomène purement quantique appelé verrouillage: il est possible d'encoder un message classique dans un état quantique de sorte qu'en lui enlevant un sous-système de taille logarithmique par rapport à sa taille totale, on puisse s'assurer qu'aucune mesure ne puisse avoir de corrélation significative avec le message. Le message se trouve donc «verrouillé» par une clé de taille logarithmique. Cette thèse présente le premier protocole de verrouillage dont le critère de succès est que la distance trace entre la distribution jointe du message et du résultat de la mesure et le produit de leur marginales soit suffisamment petite.
Resumo:
La réflexion sur l’intégration au travail des nouvelles enseignantes touche de plus en plus la communauté des chercheurs en éducation. Avec la valorisation de la pratique réflexive, l’enseignante se voit plus que par le passé autorisé à exercer une grande liberté d’action dans son travail, ainsi qu’une grande autonomie en ce qui à trait à l’exécution de sa tâche. Cette liberté peut être lourde à porter, surtout lorsqu’on entre dans le métier. Aussi, pour soutenir cette liberté et la diriger, la référence aux valeurs demeure fondamentale. Dans le présent mémoire, nous tentons d’en savoir plus sur les valeurs qui animent ces nouvelles venues, et comment celles-ci les aident à vivre leur intégration et à concevoir leur place dans le métier. La cueillette des données effectuée à partir de leurs réflexions, souvent profondes, sur les valeurs personnelles, les valeurs au travail et le rapport au métier, permet une analyse du discours basée sur le ressenti et l’expérience. C’est en puisant dans les thèses de la modernité et de la postmodernité, toutes deux parlantes quant à l’époque actuelle, que nous tentons de mieux cerner et induire les valeurs propres aux enseignantes ayant participé à notre étude phénoménologique de type exploratoire. Grâce à l’analyse de contenu, nous sommes à même de constater que malgré une ligne de partage présente entre certaines valeurs dites modernes et postmodernes, il n’en demeure pas moins qu’une tendance se dessine : nos nouvelles enseignantes désirent être fidèles d’abord et avant tout à elles-mêmes, même si cela implique l’abandon du métier qu’elles envisagent toutes comme une possibilité, sans exception. Cela en dit long sur leurs priorités et leurs valeurs au travail. Il est clair qu’elles travaillent de manière à se sentir authentiques, toujours avec le souci de savoir s’adapter aux nouvelles situations. Cependant, même si certaines d’entre elles trouvent plus ardu de s’adapter à une demande en matière de flexibilité professionnelle à la hausse, il n’en demeure pas moins que la flexibilité au travail est un élément désormais bien intégré à l’habitus professionnel des enseignantes pratiquant depuis dix ans et moins. Si postmodernes que ça nos nouvelles enseignantes? Oui.
Resumo:
La recherche en génie logiciel a depuis longtemps tenté de mieux comprendre le processus de développement logiciel, minimalement, pour en reproduire les bonnes pratiques, et idéalement, pour pouvoir le mécaniser. On peut identifier deux approches majeures pour caractériser le processus. La première approche, dite transformationnelle, perçoit le processus comme une séquence de transformations préservant certaines propriétés des données à l’entrée. Cette idée a été récemment reprise par l’architecture dirigée par les modèles de l’OMG. La deuxième approche consiste à répertorier et à codifier des solutions éprouvées à des problèmes récurrents. Les recherches sur les styles architecturaux, les patrons de conception, ou les cadres d’applications s’inscrivent dans cette approche. Notre travail de recherche reconnaît la complémentarité des deux approches, notamment pour l’étape de conception: dans le cadre du développement dirigé par les modèles, nous percevons l’étape de conception comme l’application de patrons de solutions aux modèles reçus en entrée. Il est coutume de définir l’étape de conception en termes de conception architecturale, et conception détaillée. La conception architecturale se préoccupe d’organiser un logiciel en composants répondant à un ensemble d’exigences non-fonctionnelles, alors que la conception détaillée se préoccupe, en quelque sorte, du contenu de ces composants. La conception architecturale s’appuie sur des styles architecturaux qui sont des principes d’organisation permettant d’optimiser certaines qualités, alors que la conception détaillée s’appuie sur des patrons de conception pour attribuer les responsabilités aux classes. Les styles architecturaux et les patrons de conception sont des artefacts qui codifient des solutions éprouvées à des problèmes récurrents de conception. Alors que ces artefacts sont bien documentés, la décision de les appliquer reste essentiellement manuelle. De plus, les outils proposés n’offrent pas un support adéquat pour les appliquer à des modèles existants. Dans cette thèse, nous nous attaquons à la conception détaillée, et plus particulièrement, à la transformation de modèles par application de patrons de conception, en partie parce que les patrons de conception sont moins complexes, et en partie parce que l’implémentation des styles architecturaux passe souvent par les patrons de conception. Ainsi, nous proposons une approche pour représenter et appliquer les patrons de conception. Notre approche se base sur la représentation explicite des problèmes résolus par ces patrons. En effet, la représentation explicite du problème résolu par un patron permet : (1) de mieux comprendre le patron, (2) de reconnaître l’opportunité d’appliquer le patron en détectant une instance de la représentation du problème dans les modèles du système considéré, et (3) d’automatiser l’application du patron en la représentant, de façon déclarative, par une transformation d’une instance du problème en une instance de la solution. Pour vérifier et valider notre approche, nous l’avons utilisée pour représenter et appliquer différents patrons de conception et nous avons effectué des tests pratiques sur des modèles générés à partir de logiciels libres.
Resumo:
Sur la base d’une étude des équipes de football universitaire, le présent mémoire de maîtrise cherche à mettre en évidence les éléments de l’« esprit de corps » — c’est-à-dire l’adhésion pas forcément consciente « des individus aux valeurs et à la valeur d’un groupe qui, en tant que corps intégré, dispose des espèces d’échanges propres à renforcer l’intégration et la solidarité entre ses membres » (Bourdieu, 1989, p. 258) — qui peuvent être applicables à ce groupe donné tout en analysant de quelle façon cette notion vient influencer les performances des équipes. En s’appuyant sur des notes de terrain recueillies lors d’une observation exploratoire et sur des entretiens semi-dirigés réalisés auprès de joueurs de football qui jouent ou qui ont joué au niveau universitaire, ce mémoire a pour objectif de mieux saisir en quoi un esprit de corps présent à l’intérieur d’une équipe de football vient influencer les performances de celle-ci. Sur la base des données recueillies, une équipe présentant un fort esprit de corps en ses rangs voit ses performances la mener au succès. Lorsque les composantes de l’esprit de corps sont présentes, partagées par tous les joueurs et suivies à la lettre, les équipes sont appelées à mieux performer dans la ligue de football universitaire, contrairement à d’autres formations où certains éléments caractérisant l’esprit de corps ont une importance moindre.
Resumo:
Le rire est un comportement humain indiscutablement universel. Abondamment traité par la psychologie et les neurosciences, il demeure néanmoins le laissé-pour-compte de l’anthropologie. Si les connaissances empiriques accumulées à ce jour ont permis de bien le caractériser à des niveaux proximaux d’analyse, la question de son origine évolutionniste est, en contrepartie, souvent évacuée. Or, toute tentative sérieuse de comprendre ce comportement requiert une investigation de sa fonction adaptative et de sa phylogénèse. Le projet entrepris ici consiste en une analyse de cinq hypothèses ultimes sur le rire et l’humour, desquelles sont extraites des prédictions qui sont confrontées à des données empiriques provenant de disciplines diverses. En guise de conclusion, il est tenté de formuler un scénario évolutif qui concilie les différentes hypothèses abordées.
Resumo:
Ce travail présente une technique de simulation de feux de forêt qui utilise la méthode Level-Set. On utilise une équation aux dérivées partielles pour déformer une surface sur laquelle est imbriqué notre front de flamme. Les bases mathématiques de la méthode Level-set sont présentées. On explique ensuite une méthode de réinitialisation permettant de traiter de manière robuste des données réelles et de diminuer le temps de calcul. On étudie ensuite l’effet de la présence d’obstacles dans le domaine de propagation du feu. Finalement, la question de la recherche du point d’ignition d’un incendie est abordée.
Resumo:
Ce mémoire propose une étude de la thématique hivernale dans les tableaux réalisés par Maurice Cullen (1864-1936) entre 1896 et 1914. Elle s’appuie sur une analyse des contextes politiques et culturels. Pour représenter les paysages enneigés canadiens, Cullen adapte quelques techniques modernes issues de l’impressionnisme, acquises lors de son premier séjour en Europe. Malgré cette influence artistique étrangère présente par l’emploi d’une palette de couleurs vives et de la touche divisée, le respect de la perspective et de la tridimensionnalité témoignent du maintien de certains principes académiques. L’usage de procédés impressionnistes permet à cet artiste de mettre en évidence les caractéristiques atmosphériques et lumineuses de son pays. Par l’application de ces procédés sur la représentation de la neige, Cullen participe ainsi à un travail de redécouverte et de valorisation du territoire. En effet, il privilégie plutôt l’expérience sensitive du territoire que le choix de la thématique des œuvres. L’ensemble des données visuelles et sensitives contenues dans ses œuvres a pour objectif de faire prendre conscience au spectateur de sa difficulté à se repérer au sein de son propre territoire et à accepter les rudes conditions climatiques inhérentes au Canada. Ce travail demeure impartial face au conflit identitaire opposant les francophones et les anglophones, bien qu’il intervienne dans les prémices de la mise en place d’une esthétique canadienne. Ce mémoire défend l’idée que Cullen renouvelle l’imagerie hivernale et s’inscrit dans les débuts du processus de création d’une iconographie nationale. Avec ses pairs, il s’engage à valoriser l’art local, et il ouvre une réflexion sur la représentation du territoire canadien, qui sera poursuivie par la génération suivante avec le Groupe des Sept.
Resumo:
RÉSUMÉ: L’objectif de ce mémoire de recherche était double, soit de mesurer l’effet des conditions de l’organisation du travail sur la consommation de médicaments psychotropes ainsi que de mesurer l’effet modérateur de la famille sur cette relation dans la population de travailleurs canadiens. Les données utilisées pour mener à terme cette recherche sont des données secondaires provenant de l’Enquête sur la Santé dans les Collectivités Canadiennes (ESCC cycle 2.1) de Statistique Canada. La consommation de médicaments psychotropes fut mesurée sur une période d’un mois. La prévalence de consommation chez les travailleurs canadiens s’élève à 8.8%, plus particulièrement 6.3% pour les hommes et 11.7% en ce qui concerne les femmes. À l’égard des conditions de l’organisation du travail, le nombre d’heures travaillées est associé de manière négative à la consommation de médicaments psychotropes. Ainsi, plus le nombre d’heures travaillées augmente, plus le risque de consommer des médicaments psychotropes est faible. Quant à la situation familiale, le fait de vivre seul, ainsi que le fait d’avoir un revenu économique élevé sont tous deux associés à la consommation de médicaments psychotropes. Les résultats de cette étude suggèrent une influence de la part des conditions de l’organisation du travail et de la famille sur la consommation de médicaments psychotropes. Toutefois, il nous est impossible à cette étape de montrer un effet modérateur de la famille sur la relation entre les conditions de l’organisation du travail et la consommation de médicaments psychotropes. MOTS CLÉS : Conditions de l’organisation du travail, médicaments psychotropes, famille, population active canadienne
Resumo:
Des études ont observé que le statut socio-économique (SSE) est inversement associé avec le risque de cancer du poumon. Cette thèse approfondit différents aspects de la relation entre le SSE et le risque de cancer du poumon afin de contribuer à la compréhension des facteurs influençant le risque de cette maladie. Son objectif général consiste à étudier les associations entre le SSE et le risque de cancer du poumon en fonction à la fois : 1) de l’indicateur du SSE ; 2) des types d’ajustement pour le tabagisme, et ; 3) des facteurs de risque intermédiares potentiels de l’association entre le SSE et le cancer du poumon. Les données d’une vaste étude cas-témoins menée à Montréal entre 1996 et 2002 et portant sur l’identification de facteurs environnementaux impliqués dans l’étiologie du cancer du poumon ont été utilisées. L’échantillon analysé était constitué de 1203 cas (738 hommes et 465 femmes) diagnostiqués en 1996-1997 dans les 18 principaux hôpitaux du Grand Montréal et 1513 témoins (899 hommes et 614 femmes). Les témoins, recrutés au hasard à partir de la liste électorale, ont été appariés aux cas selon l’âge, le sexe et le district électoral. Les sujets ont été interviewés afin de colliger de l’information entre autres sur les caractéristiques sociodémographiques et économiques, les habitudes de tabagisme, l‘histoire professionnelle et l’alimentation. Une collecte de données additionnelle a été effectuée spécifiquement pour la présente thèse. En effet, l’évaluation foncière de la résidence correspondant à l’adresse de chacun des sujets à l’entrevue a été obtenue à partir des bases de données publiques de la ville de Montréal. Le premier article portait sur la comparaison de différents indices de disponibilité financière chacun en 5 catégories: un indice de valeur résidentielle, le revenu médian issu des données du recensement et le revenu familial auto-rapporté. En comparant au revenu familial auto-rapporté, une très bonne concordance a été obtenue pour 73% et 64% des individus respectivement pour l’indice de valeur résidentielle et le revenu du recensement. Le Kappa pondéré était plus élevé pour la comparaison du revenu familial auto-rapporté avec l’indice de valeur résidentielle (Kappap=0.36, IC 95%: 0.31-0.40) qu’avec le revenu médian issu du recensement (Kappap=0.22, IC 95%: 0.17-0.27). Le choix d’un indice dépend toutefois des objectifs et de la faisabilité de son utilisation dans la population étudiée. Le deuxième article présentait les associations entre les trois indices de disponibilité financière et le risque de cancer du poumon. Les fortes associations observées initialement sont disparues après un ajustement pour plusieurs dimensions du tabagisme. Ce dernier jouait un rôle de grande importance dans la relation entre le SSE et le risque de cancer du poumon. Finalement, les facteurs de risque intermédiares des associations entre trois différentes dimensions du SSE – éducation, revenu, classe professionnelle – ont été étudiés. Les résultats ont suggéré que les 3 facteurs de risque intermédiares potentiels étudiés: tabagisme, consommation de fruits et légumes riches en caroténoïdes, expositions professionnelles avaient un effet médiateur indépendant dans la relation entre le SSE et le cancer du poumon. Le plus important médiateur était le tabagisme, suivi de l’alimentation et à un degré moindre, les expositions professionnelles. Il nous paraît particulièrement pertinent d‘évaluer différents indicateurs du SSE lorsque possible, et d’effectuer un ajustement détaillé pour le tabagisme lorsque la relation entre le SSE et le risque de cancer du poumon est étudiée. Une bonne connaissance et la prise en compte des facteurs de risque intermédiares sont essentielles à la formulation des mesures de prévention du cancer du poumon.
Resumo:
Les avancés dans le domaine de l’intelligence artificielle, permettent à des systèmes informatiques de résoudre des tâches de plus en plus complexes liées par exemple à la vision, à la compréhension de signaux sonores ou au traitement de la langue. Parmi les modèles existants, on retrouve les Réseaux de Neurones Artificiels (RNA), dont la popularité a fait un grand bond en avant avec la découverte de Hinton et al. [22], soit l’utilisation de Machines de Boltzmann Restreintes (RBM) pour un pré-entraînement non-supervisé couche après couche, facilitant grandement l’entraînement supervisé du réseau à plusieurs couches cachées (DBN), entraînement qui s’avérait jusqu’alors très difficile à réussir. Depuis cette découverte, des chercheurs ont étudié l’efficacité de nouvelles stratégies de pré-entraînement, telles que l’empilement d’auto-encodeurs traditionnels(SAE) [5, 38], et l’empilement d’auto-encodeur débruiteur (SDAE) [44]. C’est dans ce contexte qu’a débuté la présente étude. Après un bref passage en revue des notions de base du domaine de l’apprentissage machine et des méthodes de pré-entraînement employées jusqu’à présent avec les modules RBM, AE et DAE, nous avons approfondi notre compréhension du pré-entraînement de type SDAE, exploré ses différentes propriétés et étudié des variantes de SDAE comme stratégie d’initialisation d’architecture profonde. Nous avons ainsi pu, entre autres choses, mettre en lumière l’influence du niveau de bruit, du nombre de couches et du nombre d’unités cachées sur l’erreur de généralisation du SDAE. Nous avons constaté une amélioration de la performance sur la tâche supervisée avec l’utilisation des bruits poivre et sel (PS) et gaussien (GS), bruits s’avérant mieux justifiés que celui utilisé jusqu’à présent, soit le masque à zéro (MN). De plus, nous avons démontré que la performance profitait d’une emphase imposée sur la reconstruction des données corrompues durant l’entraînement des différents DAE. Nos travaux ont aussi permis de révéler que le DAE était en mesure d’apprendre, sur des images naturelles, des filtres semblables à ceux retrouvés dans les cellules V1 du cortex visuel, soit des filtres détecteurs de bordures. Nous aurons par ailleurs pu montrer que les représentations apprises du SDAE, composées des caractéristiques ainsi extraites, s’avéraient fort utiles à l’apprentissage d’une machine à vecteurs de support (SVM) linéaire ou à noyau gaussien, améliorant grandement sa performance de généralisation. Aussi, nous aurons observé que similairement au DBN, et contrairement au SAE, le SDAE possédait une bonne capacité en tant que modèle générateur. Nous avons également ouvert la porte à de nouvelles stratégies de pré-entraînement et découvert le potentiel de l’une d’entre elles, soit l’empilement d’auto-encodeurs rebruiteurs (SRAE).
Resumo:
Les naines brunes sont des astres incapables de déclencher et soutenir des réactions nucléaires dans leur cœur. En l’absence de cette source d’énergie, leur luminosité diminue avec le temps jusqu’à leur extinction complète. Leur flux aux longueurs d’onde de 0,8 à 2,35 μm est particulièrement altéré par l’humidité contenue dans l’atmosphère terrestre, ce qui complique l’étude de ces astres. Le but de la présente recherche est de vérifier si la division par un spectre d’étoile A0 est un moyen de corriger l’altération causée par l’atmosphère terrestre sur cette partie de leur spectre. Tout d’abord, des notions, pertinentes à la compréhension de ce travail, sont abordées. L’introduction présente quelques notions sur les naines brunes et sur l’atmosphère terrestre. Le deuxième chapitre concerne le traitement des données. Il traite de la calibration, de la mise en évidence du problème de non-répétabilité de la position de la fente du spectromètre SIMON ainsi que de ses causes. Il porte aussi sur l’uniformisation de la réponse des pixels et de la soustraction du ciel pour extraire les spectres. La méthode employée pour étudier l’effet de l’atmosphère terrestre sur les spectres de naines brunes y est présentée. Le troisième chapitre analyse les résultats obtenus par l’utilisation de l’étoile de référence de type A0 comme calibration pour corriger le spectre de naine brune, en assumant un même effet de l’atmosphère terrestre sur les deux types d’astres. Nous ne pouvons conclure, avec certitude, que l’absorption tellurique affecte de la même façon les deux spectres ni de quelle façon exactement ils sont affectés. Une recherche supplémentaire nécessitant de nouvelles prises de données à des masses d’air et à des taux d’humidité variés est requise.
Resumo:
Des dinosaures sur papier : des notes « sur le terrain » comme on en trouve dans le Badlands de Robert Kroetsch passe en revue cette œuvre postmoderne de 1975 portant sur une expédition paléontologique fictive près de la rivière Red Deer, en Alberta, conformément à la récente tendance à exiger la vérification systématique des données à la base des récits métafictifs historiographiques dans la littérature canadienne-anglaise. Inspirée de l’exploration canonique qu’a effectuée John Livingston-Lowes des plus grands poèmes de Samuel Taylor Coleridge par le biais de la mine d’or du Gutch Memorandum Book dans The Road to Xanadu, cette thèse entreprend un nouveau type de recherche qui se démarque des archives conventionnelles et de la tradition documentaire. S’appuyant sur des documents holographes non publiés provenant de dépôts d’archives situés au Québec, en Ontario et en Alberta et écrits par des collecteurs, des géologues et des paléontologues de la Commission géologique du Canada, ainsi que sur des notes « sur le terrain », des notes de recherche et des journaux personnels écrits par Robert Kroetsch pendant la rédaction de son roman Badlands, cet examen critique révèle les strates sous-jacentes inédites d’une œuvre de fiction particulière. Dans pratiquement toute fouille paléontologique, le retrait de ce qui enveloppe un spécimen révèle souvent des données supplémentaires qui peuvent, si elles sont soigneusement interprétées, offrir des indices essentiels sur les environnements paléontologiques. Ainsi, un squelette de dinosaure est rarement retiré d’une carrière stérile dans son intégralité. Il en va de même pour toute recherche sur un processus littéraire. Aucun texte ne s’autosuffit. Comme Kroetsch s’est efforcé de produire son récit sous forme d’interrogation sur la création et la transmission des données historiques, particulièrement grâce à des notes « sur le terrain », une vaste étude de ce « terrain » comprenant des intertextes de l’Antiquité, des sciences, de l’Histoire, de l’histoire populaire, de récits de voyages et de la littérature canadienne et internationale est ici menée. On y fait librement référence à des périodes et à des auteurs très diversifiés, allant de Thomas Jefferson et des tombelles à Bruce Chatwin et sa peau de « brontosaure ». Évidemment, aucune entreprise interdisciplinaire du genre ne peut être exhaustive. Ce projet se veut plutôt une vitrine littéraire réunissant des curiosités autour d’une œuvre principale, soit le Badlands de Robert Kroetsch. Réduites à leur plus simple expression, les notes « sur le terrain » constituent des messages destinés à la postérité. En explorant trois thèmes principaux, cette thèse explique comment ces messages pourraient être transmis. « Saxa Loquuntur ! », ainsi intitulé en référence à l’analogie de Freud avec l’archéologie, traite des métaphores associées aux témoignages de la pierre ; « Good Jones » porte sur les façons dont la taxinomie peut combler le désir d’un chercheur d’os de ne pas tomber dans l’oubli ; « Box 16 » suit une piste documentaire en parcourant les écrits de Kroetsch pour reconstituer tant l’élaboration d’un roman que les notions de temps, d’espace et d’origine d’une œuvre littéraire.
Resumo:
RÉSUMÉ Cette étude porte sur la présence phénicienne en Syrie du Nord uniquement pendant la première moitié de l’Âge du Fer, i.e entre 1000 et 500 av. J.C. Elle est fondée sur l’analyse des données archéologiques et littéraires des principaux sites côtiers de cette région, al Mina, Ras el Bassit, Tell Kazel, Tell Soukas et Amrit. Après une présentation des caractéristiques culturelles de la civilisation phénicienne, j’aborde l’analyse de ces sites. Les données qui permettent de prouver une présence phénicienne dans la région s’avèrent nombreuses et j’en conclus que les Phéniciens devaient constituer une minorité importante de la population de ces sites, au même titre que les Grecs ou les Chypriotes, la majorité étant d’origine syrienne. Mais dans certains cas, notamment sur les sites les plus proches des grandes capitales phéniciennes, il n’est pas impossible qu’ils aient été majoritaires. L’étude illustrera par ailleurs l’importance du rôle des cités de la Syrie du Nord dans les échanges commerciaux et culturels avec les autres cultures du Sud-Est du bassin méditerranéen, notamment celles de la Grèce, île de Chypre, de la Cilicie et de la Syrie intérieure.