45 resultados para Alignements de la structure
Resumo:
Cette thèse a comme objectif de démontrer combien Alaric et ses Goths étaient Romains dans pratiquement toutes les catégories connues sur leur compte. Pour ce faire, l’auteur a puisé dans les sciences sociales et a emprunté le champ conceptuel de l’éminent sociologue Pierre Bourdieu. À l’aide du concept d’habitus, entre autres choses, l’auteur a tenté de faire valoir à quel point les actions d’Alaric s’apparentaient à celles des généraux romains de son époque. Naturellement, il a fallu étaler le raisonnement au long de plusieurs chapitres et sur de nombreux niveaux. C’est-à-dire qu’il a fallu d’abord définir les concepts populaires en ce moment pour « faire » l’histoire des barbares durant l’Antiquité tardive. Pensons ici à des termes tels que l’ethnicité et l’ethnogenèse. L’auteur s’est distancé de ces concepts qu’il croyait mal adaptés à la réalité des Goths et d’Alaric. C’est qu’il fallait comprendre ces hommes dans une structure romaine, au lieu de leur octroyer une histoire et des traditions barbares. Il a ensuite fallu montrer que la thèse explorait des avenues restées peu empruntées jusqu’à aujourd’hui. Il a été question de remonter jusqu’à Gibbon pour ensuite promouvoir le fait que quelques érudits avaient autrefois effleuré la question d’Alaric comme étant un homme beaucoup moins barbare que ce que la tradition véhiculait à son sujet, tel que Fustel de Coulanges, Amédée Thierry ou encore Marcel Brion. Il s’agissait donc de valider l’angle de recherche en prenant appui d’abord sur ces anciens luminaires de la discipline. Vint ensuite l’apport majeur de cette thèse, c’est-à-dire essentiellement les sections B, C et D. La section B a analysé la logistique durant la carrière d’Alaric. Cette section a permis avant tout de démontrer clairement qu’on n’a pas affaire à une troupe de brigands révoltés; le voyage de 401-402 en Italie prouve à lui seul ce fait. L’analyse approfondie de l’itinéraire d’Alaric durant ses nombreux voyages a démontré que cette armée n’aurait pas pu effectuer tous ces déplacements sans l’appui de la cour orientale. En l’occurrence, Alaric et son armée étaient véritablement des soldats romains à ce moment précis, et non pas simplement les fédérés barbares de la tradition. La section C s’est concentrée sur les Goths d’Alaric, où on peut trouver deux chapitres qui analysent deux sujets distincts : origine/migration et comparaison. C’est dans cette section que l’auteur tente de valider l’hypothèse que les Goths d’Alaric n’étaient pas vraiment Goths, d’abord, et qu’ils étaient plutôt Romains, ensuite. Le chapitre sur la migration n’a comme but que de faire tomber les nombreuses présomptions sur la tradition gothe que des érudits comme Wolfram et Heather s’efforcent de défendre encore aujourd’hui. L’auteur argumente pour voir les Goths d’Alaric comme un groupe formé à partir d’éléments romains; qu’ils eurent été d’une origine barbare quelconque dans les faits n’a aucun impact sur le résultat final : ces hommes avaient vécu dans l’Empire durant toute leur vie (Alaric inclus) et leurs habitus ne pouvaient pas être autre chose que romain. Le dernier chapitre de la section C a aussi démontré que le groupe d’Alaric était d’abord profondément différent des Goths de 376-382, puis d’autres groupes que l’on dit barbares au tournant du 5e siècle, comme l’étaient les Vandales et les Alamans par exemple. Ensemble, ces trois chapitres couvrent la totalité de ce que l’on connait du groupe d’Alaric et en offre une nouvelle interprétation à la lumière des dernières tendances sociologiques. La section D analyse quant à elle en profondeur Alaric et sa place dans l’Empire romain. L’auteur a avant tout lancé l’idée, en s’appuyant sur les sources, qu’Alaric n’était pas un Goth ni un roi. Il a ensuite analysé le rôle d’Alaric dans la structure du pouvoir de l’Empire et en est venu à la conclusion qu’il était l’un des plus importants personnages de l’Empire d’Orient entre 397 et 408, tout en étant soumis irrémédiablement à cette structure. Sa carrière militaire était des plus normale et s’inscrivait dans l’habitus militaire romain de l’époque. Il a d’ailleurs montré que, par ses actions, Alaric était tout aussi Romain qu’un Stilicon. À dire le vrai, mis à part Claudien, rien ne pourrait nous indiquer qu’Alaric était un barbare et qu’il essayait d’anéantir l’Empire. La mauvaise image d’Alaric n’est en effet redevable qu’à Claudien : aucun auteur contemporain n’en a dressé un portrait aussi sombre. En découle que les auteurs subséquents qui firent d’Alaric le roi des Goths et le ravageur de la Grèce avaient sans doute été fortement influencés eux aussi par les textes de Claudien.
Resumo:
Le but de cette thèse est d’explorer le potentiel sismique des étoiles naines blanches pulsantes, et en particulier celles à atmosphères riches en hydrogène, les étoiles ZZ Ceti. La technique d’astérosismologie exploite l’information contenue dans les modes normaux de vibration qui peuvent être excités lors de phases particulières de l’évolution d’une étoile. Ces modes modulent le flux émergent de l’étoile pulsante et se manifestent principalement en termes de variations lumineuses multi-périodiques. L’astérosismologie consiste donc à examiner la luminosité d’étoiles pulsantes en fonction du temps, afin d’en extraire les périodes, les amplitudes apparentes, ainsi que les phases relatives des modes de pulsation détectés, en utilisant des méthodes standards de traitement de signal, telles que des techniques de Fourier. L’étape suivante consiste à comparer les périodes de pulsation observées avec des périodes générées par un modèle stellaire en cherchant l’accord optimal avec un modèle physique reconstituant le plus fidèlement possible l’étoile pulsante. Afin d’assurer une recherche optimale dans l’espace des paramètres, il est nécessaire d’avoir de bons modèles physiques, un algorithme d’optimisation de comparaison de périodes efficace, et une puissance de calcul considérable. Les périodes des modes de pulsation de modèles stellaires de naines blanches peuvent être généralement calculées de manière précise et fiable sur la base de la théorie linéaire des pulsations stellaires dans sa version adiabatique. Afin de définir dans son ensemble un modèle statique de naine blanche propre à l’analyse astérosismologique, il est nécessaire de spécifier la gravité de surface, la température effective, ainsi que différents paramètres décrivant la disposition en couche de l’enveloppe. En utilisant parallèlement les informations obtenues de manière indépendante (température effective et gravité de surface) par la méthode spectroscopique, il devient possible de vérifier la validité de la solution obtenue et de restreindre de manière remarquable l’espace des paramètres. L’exercice astérosismologique, s’il est réussi, mène donc à la détermination précise des paramètres de la structure globale de l’étoile pulsante et fournit de l’information unique sur sa structure interne et l’état de sa phase évolutive. On présente dans cette thèse l’analyse complète réussie, de l’extraction des fréquences à la solution sismique, de quatre étoiles naines blanches pulsantes. Il a été possible de déterminer les paramètres structuraux de ces étoiles et de les comparer remarquablement à toutes les contraintes indépendantes disponibles dans la littérature, mais aussi d’inférer sur la dynamique interne et de reconstruire le profil de rotation interne. Dans un premier temps, on analyse le duo d’étoiles ZZ Ceti, GD 165 et Ross 548, afin de comprendre les différences entre leurs propriétés de pulsation, malgré le fait qu’elles soient des étoiles similaires en tout point, spectroscopiquement parlant. L’analyse sismique révèle des structures internes différentes, et dévoile la sensibilité de certains modes de pulsation à la composition interne du noyau de l’étoile. Afin de palier à cette sensibilité, nouvellement découverte, et de rivaliser avec les données de qualité exceptionnelle que nous fournissent les missions spatiales Kepler et Kepler2, on développe une nouvelle paramétrisation des profils chimiques dans le coeur, et on valide la robustesse de notre technique et de nos modèles par de nombreux tests. Avec en main la nouvelle paramétrisation du noyau, on décroche enfin le ”Saint Graal” de l’astérosismologie, en étant capable de reproduire pour la première fois les périodes observées à la précision des observations, dans le cas de l’étude sismique des étoiles KIC 08626021 et de GD 1212.
Resumo:
People go through their life making all kinds of decisions, and some of these decisions affect their demand for transportation, for example, their choices of where to live and where to work, how and when to travel and which route to take. Transport related choices are typically time dependent and characterized by large number of alternatives that can be spatially correlated. This thesis deals with models that can be used to analyze and predict discrete choices in large-scale networks. The proposed models and methods are highly relevant for, but not limited to, transport applications. We model decisions as sequences of choices within the dynamic discrete choice framework, also known as parametric Markov decision processes. Such models are known to be difficult to estimate and to apply to make predictions because dynamic programming problems need to be solved in order to compute choice probabilities. In this thesis we show that it is possible to explore the network structure and the flexibility of dynamic programming so that the dynamic discrete choice modeling approach is not only useful to model time dependent choices, but also makes it easier to model large-scale static choices. The thesis consists of seven articles containing a number of models and methods for estimating, applying and testing large-scale discrete choice models. In the following we group the contributions under three themes: route choice modeling, large-scale multivariate extreme value (MEV) model estimation and nonlinear optimization algorithms. Five articles are related to route choice modeling. We propose different dynamic discrete choice models that allow paths to be correlated based on the MEV and mixed logit models. The resulting route choice models become expensive to estimate and we deal with this challenge by proposing innovative methods that allow to reduce the estimation cost. For example, we propose a decomposition method that not only opens up for possibility of mixing, but also speeds up the estimation for simple logit models, which has implications also for traffic simulation. Moreover, we compare the utility maximization and regret minimization decision rules, and we propose a misspecification test for logit-based route choice models. The second theme is related to the estimation of static discrete choice models with large choice sets. We establish that a class of MEV models can be reformulated as dynamic discrete choice models on the networks of correlation structures. These dynamic models can then be estimated quickly using dynamic programming techniques and an efficient nonlinear optimization algorithm. Finally, the third theme focuses on structured quasi-Newton techniques for estimating discrete choice models by maximum likelihood. We examine and adapt switching methods that can be easily integrated into usual optimization algorithms (line search and trust region) to accelerate the estimation process. The proposed dynamic discrete choice models and estimation methods can be used in various discrete choice applications. In the area of big data analytics, models that can deal with large choice sets and sequential choices are important. Our research can therefore be of interest in various demand analysis applications (predictive analytics) or can be integrated with optimization models (prescriptive analytics). Furthermore, our studies indicate the potential of dynamic programming techniques in this context, even for static models, which opens up a variety of future research directions.
Resumo:
Les algèbres de Temperley-Lieb originales, aussi dites régulières, apparaissent dans de nombreux modèles statistiques sur réseau en deux dimensions: les modèles d'Ising, de Potts, des dimères, celui de Fortuin-Kasteleyn, etc. L'espace d'Hilbert de l'hamiltonien quantique correspondant à chacun de ces modèles est un module pour cette algèbre et la théorie de ses représentations peut être utilisée afin de faciliter la décomposition de l'espace en blocs; la diagonalisation de l'hamiltonien s'en trouve alors grandement simplifiée. L'algèbre de Temperley-Lieb diluée joue un rôle similaire pour des modèles statistiques dilués, par exemple un modèle sur réseau où certains sites peuvent être vides; ses représentations peuvent alors être utilisées pour simplifier l'analyse du modèle comme pour le cas original. Or ceci requiert une connaissance des modules de cette algèbre et de leur structure; un premier article donne une liste complète des modules projectifs indécomposables de l'algèbre diluée et un second les utilise afin de construire une liste complète de tous les modules indécomposables des algèbres originale et diluée. La structure des modules est décrite en termes de facteurs de composition et par leurs groupes d'homomorphismes. Le produit de fusion sur l'algèbre de Temperley-Lieb originale permet de «multiplier» ensemble deux modules sur cette algèbre pour en obtenir un autre. Il a été montré que ce produit pouvait servir dans la diagonalisation d'hamiltoniens et, selon certaines conjectures, il pourrait également être utilisé pour étudier le comportement de modèles sur réseaux dans la limite continue. Un troisième article construit une généralisation du produit de fusion pour les algèbres diluées, puis présente une méthode pour le calculer. Le produit de fusion est alors calculé pour les classes de modules indécomposables les plus communes pour les deux familles, originale et diluée, ce qui vient ajouter à la liste incomplète des produits de fusion déjà calculés par d'autres chercheurs pour la famille originale. Finalement, il s'avère que les algèbres de Temperley-Lieb peuvent être associées à une catégorie monoïdale tressée, dont la structure est compatible avec le produit de fusion décrit ci-dessus. Le quatrième article calcule explicitement ce tressage, d'abord sur la catégorie des algèbres, puis sur la catégorie des modules sur ces algèbres. Il montre également comment ce tressage permet d'obtenir des solutions aux équations de Yang-Baxter, qui peuvent alors être utilisées afin de construire des modèles intégrables sur réseaux.
Resumo:
Les organismes aquatiques sont adaptés à une grande variabilité hydrique et thermique des rivières. Malgré ceci, la régulation des eaux suscite des changements aux débits qui peuvent provoquer des impacts négatifs sur la biodiversité et les processus écologiques en rivière. Celle-ci peut aussi causer des modifications au niveau des régimes thermiques et des caractéristiques de l’habitat du poisson. Des données environnementales et biologiques décrivant l’habitat du poisson existent, mais elles sont incomplètes pour plusieurs rivières au Canada et de faible qualité, limitant les relations quantitatives débit-température-poissons à un petit nombre de rivières ou à une région étudiée. La recherche menée dans le cadre de mon doctorat concerne les impacts de la génération d'hydroélectricité sur les rivières; soit les changements aux régimes hydriques et thermiques reliés à la régulation des eaux sur la variation des communautés ichtyologiques qui habitent les rivières régulées et naturelles au Canada. Suite à une comparaison d’échantillonnage de pêche, une méthode constante pour obtenir des bons estimés de poisson (richesse, densité et biomasse des espèces) a été établie pour évaluer la structure de la communauté de poissons pour l’ensemble des rivières ciblées par l’étude. Afin de mieux comprendre ces changements environnementaux, les principales composantes décrivant ces régimes ont été identifiées et l’altération des régimes hydriques pour certaines rivières régulées a été quantifiée. Ces résultats ont servi à établir la relation significative entre le degré de changement biotique et le degré de changement hydrique pour illustrer les différences entre les régimes de régulation. Pour faire un complément aux indices biotiques déjà calculés pour l’ensemble des communautés de poissons (diversité, densité et biomasse des espèces par rivière), les différences au niveau des guildes de poissons ont été quantifiées pour expliquer les divers effets écologiques dus aux changements de régimes hydriques et thermiques provenant de la gestion des barrages. Ces derniers résultats servent à prédire pour quels traits écologiques ou groupes d’espèces de poissons les composantes hydriques et thermiques sont importantes. De plus, ces derniers résultats ont servi à mettre en valeur les variables décrivant les régimes thermiques qui ne sont pas toujours inclues dans les études hydro-écologiques. L’ensemble des résultats de cette thèse ont des retombées importantes sur la gestion des rivières en évaluant, de façon cohérente, l’impact de la régulation des rivières sur les communautés de poissons et en développant des outils de prévision pour la restauration des écosystèmes riverains.
Resumo:
La description des termes dans les ressources terminologiques traditionnelles se limite à certaines informations, comme le terme (principalement nominal), sa définition et son équivalent dans une langue étrangère. Cette description donne rarement d’autres informations qui peuvent être très utiles pour l’utilisateur, surtout s’il consulte les ressources dans le but d’approfondir ses connaissances dans un domaine de spécialité, maitriser la rédaction professionnelle ou trouver des contextes où le terme recherché est réalisé. Les informations pouvant être utiles dans ce sens comprennent la description de la structure actancielle des termes, des contextes provenant de sources authentiques et l’inclusion d’autres parties du discours comme les verbes. Les verbes et les noms déverbaux, ou les unités terminologiques prédicatives (UTP), souvent ignorés par la terminologie classique, revêtent une grande importance lorsqu’il s’agit d’exprimer une action, un processus ou un évènement. Or, la description de ces unités nécessite un modèle de description terminologique qui rend compte de leurs particularités. Un certain nombre de terminologues (Condamines 1993, Mathieu-Colas 2002, Gross et Mathieu-Colas 2001 et L’Homme 2012, 2015) ont d’ailleurs proposé des modèles de description basés sur différents cadres théoriques. Notre recherche consiste à proposer une méthodologie de description terminologique des UTP de la langue arabe, notamment l’arabe standard moderne (ASM), selon la théorie de la Sémantique des cadres (Frame Semantics) de Fillmore (1976, 1977, 1982, 1985) et son application, le projet FrameNet (Ruppenhofer et al. 2010). Le domaine de spécialité qui nous intéresse est l’informatique. Dans notre recherche, nous nous appuyons sur un corpus recueilli du web et nous nous inspirons d’une ressource terminologique existante, le DiCoInfo (L’Homme 2008), pour compiler notre propre ressource. Nos objectifs se résument comme suit. Premièrement, nous souhaitons jeter les premières bases d’une version en ASM de cette ressource. Cette version a ses propres particularités : 1) nous visons des unités bien spécifiques, à savoir les UTP verbales et déverbales; 2) la méthodologie développée pour la compilation du DiCoInfo original devra être adaptée pour prendre en compte une langue sémitique. Par la suite, nous souhaitons créer une version en cadres de cette ressource, où nous regroupons les UTP dans des cadres sémantiques, en nous inspirant du modèle de FrameNet. À cette ressource, nous ajoutons les UTP anglaises et françaises, puisque cette partie du travail a une portée multilingue. La méthodologie consiste à extraire automatiquement les unités terminologiques verbales et nominales (UTV et UTN), comme Ham~ala (حمل) (télécharger) et taHmiyl (تحميل) (téléchargement). Pour ce faire, nous avons adapté un extracteur automatique existant, TermoStat (Drouin 2004). Ensuite, à l’aide des critères de validation terminologique (L’Homme 2004), nous validons le statut terminologique d’une partie des candidats. Après la validation, nous procédons à la création de fiches terminologiques, à l’aide d’un éditeur XML, pour chaque UTV et UTN retenue. Ces fiches comprennent certains éléments comme la structure actancielle des UTP et jusqu’à vingt contextes annotés. La dernière étape consiste à créer des cadres sémantiques à partir des UTP de l’ASM. Nous associons également des UTP anglaises et françaises en fonction des cadres créés. Cette association a mené à la création d’une ressource terminologique appelée « DiCoInfo : A Framed Version ». Dans cette ressource, les UTP qui partagent les mêmes propriétés sémantiques et structures actancielles sont regroupées dans des cadres sémantiques. Par exemple, le cadre sémantique Product_development regroupe des UTP comme Taw~ara (طور) (développer), to develop et développer. À la suite de ces étapes, nous avons obtenu un total de 106 UTP ASM compilées dans la version en ASM du DiCoInfo et 57 cadres sémantiques associés à ces unités dans la version en cadres du DiCoInfo. Notre recherche montre que l’ASM peut être décrite avec la méthodologie que nous avons mise au point.
Resumo:
L’intégration des nouvelles technologies en enseignement supérieur ne devrait pas être vue comme un simple effet de mode, mais plutôt comme un cadre de réflexion sur les orientations nouvelles à donner à l’Université du 21ème siècle, en termes de culture institutionnelle, de ressources organisationnelles et d’opérationnalisation d’objectifs de recherche et d’enseignement (Duderstadt et al, 2002 ; Guri-Rosenblit, 2005). En effet, l’émergence d’une nouvelle tendance de formation post-secondaire, qu’est l’intégration des solutions virtuelles au présentiel, n’est pas sans incidences sur les pratiques enseignantes. Or, la littérature n’offre pas de modèles descriptifs satisfaisants permettant de mieux saisir la pertinence des liens entre l’enseignement en contexte d’apprentissage hybride et le développement professionnel des enseignants universitaires. Aussi avons-nous procédé par des observations participantes de deux cours en sciences de la gestion à HEC Montréal, dans les programmes de certificat de premier cycle ainsi que par des entretiens d’explicitation et d’autoconfrontation, pendant toute la session d’automne 2014, pour respectivement recueillir des données sur les pratiques réelles d’un maître d’enseignement, en sociologie du travail, et d’une chargée de cours, en gestion de projets. Notre analyse du corpus, par catégorisations conceptualisantes, a permis la production d’énoncés nomologiques rendant compte de la dynamique de relations entre ces deux phénomènes. Sur le plan scientifique, elle a apporté un éclairage nouveau sur les processus de construction identitaire professionnelle en pédagogie universitaire, en regard des mutations technologiques, socioculturelles et économiques que subissent l’Université, en général, et les pratiques enseignantes et étudiantes, en particulier. L’approche inductive utilisée a donc permis de définir la structure des interactions des deux phénomènes, selon la perspective des deux enseignants, et d’élaborer des modèles d’intervention enracinés dans leurs pratiques quotidiennes. Aussi sur le plan social, ces modèles sont-ils l’expression d’une grammaire de la pensée et de l’action, ancrée dans les valeurs des enseignants eux-mêmes. Nous avons pris en compte le paradigme de la tâche réelle, versus celui de la tâche prescrite, en termes de mise en œuvre concrète des processus pédagogiques, pour rendre les résultats de cette recherche signifiants pour la pratique. Les modèles, qui ont émergé de notre configuration de la pensée dialogique des participants, peuvent être intégrés à la formation des enseignants universitaires en contexte de bimodalisation de l’Université.
Resumo:
Le graphène est une nanostructure de carbone hybridé sp2 dont les propriétés électroniques et optiques en font un matériau novateur avec un très large potentiel d’application. Cependant, la production à large échelle de ce matériau reste encore un défi et de nombreuses propriétés physiques et chimiques doivent être étudiées plus en profondeur pour mieux les exploiter. La fonctionnalisation covalente est une réaction chimique qui a un impact important dans l’étude de ces propriétés, car celle-ci a pour conséquence une perte de la structure cristalline des carbones sp2. Néanmoins, la réaction a été très peu explorée pour ce qui est du graphène déposé sur des surfaces, car la réactivité chimique de ce dernier est grandement dépendante de l’environnement chimique. Il est donc important d’étudier la fonctionnalisation de ce type de graphène pour bien comprendre à la fois la réactivité chimique et la modification des propriétés électroniques et optiques pour pouvoir exploiter les retombées. D’un autre côté, les bicouches de graphène sont connues pour avoir des propriétés très différentes comparées à la monocouche à cause d’un empilement des structures électroniques, mais la croissance contrôlée de ceux-ci est encore très difficile, car la cinétique de croissance n’est pas encore maîtrisée. Ainsi, ce mémoire de maîtrise va porter sur l’étude de la réactivité chimique du graphène à la fonctionnalisation covalente et de l’étude des propriétés optiques du graphène. Dans un premier temps, nous avons effectué des croissances de graphène en utilisant la technique de dépôt chimique en phase vapeur. Après avoir réussi à obtenir du graphène monocouche, nous faisons varier les paramètres de croissance et nous nous rendons compte que les bicouches apparaissent lorsque le gaz carboné nécessaire à la croissance reste présent durant l’étape de refroidissement. À partir de cette observation, nous proposons un modèle cinétique de croissance des bicouches. Ensuite, nous effectuons une étude approfondie de la fonctionnalisation du graphène monocouche et bicouche. Tout d’abord, nous démontrons qu’il y a une interaction avec le substrat qui inhibe grandement le greffage covalent sur la surface du graphène. Cet effet peut cependant être contré de plusieurs façons différentes : 1) en dopant chimiquement le graphène avec des molécules réductrices, il est possible de modifier le potentiel électrochimique afin de favoriser la réaction; 2) en utilisant un substrat affectant peu les propriétés électroniques du graphène; 3) en utilisant la méthode d’électrogreffage avec une cellule électrochimique, car elle permet une modulation contrôlée du potentiel électrochimique du graphène. De plus, nous nous rendons compte que la réactivité chimique des bicouches est moindre dû à la rigidité de structure due à l’interaction entre les couches. En dernier lieu, nous démontrons la pertinence de la spectroscopie infrarouge pour étudier l’effet de la fonctionnalisation et l’effet des bicouches sur les propriétés optiques du graphène. Nous réussissons à observer des bandes du graphène bicouche dans la région du moyen infrarouge qui dépendent du dopage. Normalement interdites selon les règles de sélection pour la monocouche, ces bandes apparaissent néanmoins lorsque fonctionnalisée et changent grandement en amplitude dépendamment des niveaux de dopage et de fonctionnalisation.
Resumo:
Sachant que plusieurs maladies entrainent des lésions qui ne sont pas toujours observables à l’oeil, cette étude préliminaire en paléopathologie humaine utilise une approche complémentaire issue de l’imagerie médicale, le ct-scan, afin de fournir des diagnostics plus précis. L’objectif est donc de tester ici l’efficacité et les limites de l’analyse scanographique durant l’analyse de spécimens archéologiques. Un échantillon de 55 individus a été sélectionné à partir de la collection ostéologique provenant du cimetière protestant St. Matthew (ville de Québec, 1771 – 1860). Une analyse macroscopique et scanographique complète a alors été effectuée sur chaque squelette. Les observations macroscopiques ont consisté à enregistrer une dizaine de critères standardisés par la littérature de référence en lien avec des manifestations anormales à la surface du squelette. Les ct-scans ont été réalisés à l’Institut National de la Recherche Scientifique de la Ville de Québec avec un tomodensitomètre Somatom de Siemens (définition AS+ 128). Les données scanographiques ont permis d’enregistrer une série de critères complémentaires sur la structure interne de l’os (amincissement/épaississement de la corticale, variation de densité, etc.) Selon la méthode du diagnostic différentiel, des hypothèses ou diagnostics ont été proposés. Ils sont principalement basés sur les critères diagnostiques mentionnés dans les manuels de référence en paléopathologie, mais aussi à l’aide de la littérature clinique et l’expertise de médecins. Les résultats présentés ici supportent que: 1) Dans 43% des cas, les données scanographiques ont apporté des informations essentielles dans la diagnose pathologique. Cette tendance se confirme en fonction de certaines maladies, mais pas d’autres, car certains diagnostics ne peuvent se faire sans la présence de tissus mous. 2) La distribution spatiale de la plupart des lésions varie selon les régions anatomiques, aussi bien en macroscopie qu’en scanographie. 3) Certains types de maladie semblent associés à l’âge et au sexe, ce qui est conforté par la littérature. 4) Cette recherche démontre aussi que le processus de diagnose nécessite, dans 38% des cas, une analyse complémentaire (ex. histologie, scintigraphie, radiographie) pour préciser le diagnostic final.
Resumo:
Ce mémoire s’intéresse à la structure du recueil de poésie en prose Le Cornet à dés (1917) de Max Jacob. À la lecture de l’ensemble, on remarque qu’il est sans cesse question de choses ou d’évènements auxquels renvoient les diverses significations du mot tableau : œuvres picturales, descriptions imagées, cadres de fenêtre ou de porte, vieillards (vieux tableaux), tableaux vivants, subdivisions de pièces de théâtre ou encore tableaux d’école. Subdivisé en trois chapitres, ce travail s’attachera dans un premier temps au fait que tous ces homonymes sont traités, dans les poèmes, comme des peintures. Entre fixité et mouvement, les descriptions et les narrations rapprochent la littérature de l’art pictural, ce qui contribue à l’esthétique du doute caractéristique de l’œuvre de Max Jacob. Le deuxième chapitre s’intéresse aux procédés de reprise et à la manière dont ils permettent de faire des liens entre les poèmes. À partir des théories du mouvement et de la répétition, nous verrons comment les divers motifs forment, à la manière des dés, différentes combinaisons d’une pièce à l’autre. Inspiré par les peintres cubistes qui présentent simultanément tous les angles d’un même objet, l’auteur fait le tour du mot tableau. Dans le dernier chapitre, il ressort que la juxtaposition des poèmes donne accès à un surcroît de signification : certains éléments arbitraires comme des titres obscurs prennent soudainement sens. Une réflexion sur la lecture vient compléter ce travail puisque les nombreuses répétitions sont traitées dans la mémoire. Ce travail s’inscrit dans le champ des études sur le recueil et s’appuie principalement sur l’analyse de poèmes.
Resumo:
Ce mémoire traite de la chimie des complexes pinceurs de nickel (II) cationiques ayant un ligand de type POCOP. Elle se divise en deux parties. La première traite de la synthèse, de la caractérisation et de la réactivité des complexes cationiques pinceurs de Ni(II) de type POCOP (POCOP = 1,3-bis(phosphinitobenzene), où C fait partie d’un cycle benzénique et est lié au métal, et P est un ligand phosphoré aussi lié au métal). Ces complexes ont un ligand acétonitrile coordonné au centre métallique et sont du type [(R-POCOPR’)Ni(NCMe)][OSO2CF3], où R est un substituant du cycle benzénique et R’ est un substituant sur le ligand phosphoré (R’ = iPr: R = H (1), p-Me(2), p-OMe(3), p-CO2Me(4), p-Br(5), m,m-tBu2(6), m-OMe(7), m-CO2Me(8); R’ = t-Bu : R = H (9), p-CO2Me(10)). Les complexes cationiques sont préparés en faisant réagir le dérivé Ni(II) neutre correspondant R-(POCOPR’)Ni-Br avec Ag(OSO2CF3¬) dans l’acétonitrile à température ambiante. L’impact des groupements R et R’ du ligand POCOP sur la structure et sur les propriétées électroniques du complexe a été étudié par spectroscopies RMN, UV-VIS et IR, analyse électrochimique, et diffraction des rayons X. Les valeurs de fréquence du lien C≡N (ν(C≡N)) augmentent avec le caractère électroattracteur du complexe, dans l’ordre 7 < 3 ~ 2 ~ 6 < 1 < 5 ~ 8 < 4 et 9 < 10. Ces résultats sont en accord avec le fait qu’une augmentation du caractère électrophile du centre métallique devrait résulter en une augmentation de la donation σ MeCN→Ni. De plus, les complexes cationiques montrent tous un potentiel d’oxydation Ni(II)/Ni(III) plus élevé que leurs analogues neutres Ni-Br. Ensuite, une étude d’équilibre entre un complexe neutre (R-POCOPR’)NiBr et un complexe cationique [(R-POCOPR’)Ni(NCMe)][OSO2CF3] démontre l’échange facile des ligands MeCN et Br. La deuxième partie de ce mémoire consiste en deux chapitres. Le premier (Chapitre 3) est une étude structurelle permettant une meilleure compréhension du mécanisme d’hydroamination des oléfines activées promue par les complexes présentés au chapitre 1, suivi de tentatives de synthèse de nouveaux composés POCOP cationiques comportant un ligand amine et nitrile, et de déplacement du groupement amine par un groupement nitrile. Le deuxième chapitre (4) décrit la réactivité et la cinétique de la réaction d’hydroamination et d’hydroalkoxylation d’oléfines activées, qui permet ainsi de mieux comprendre l’impact des différentes variables du système (groupements R et R’, température, substrats, solvent, etc.) sur la réactivité catalytique.
Resumo:
Objectifs. Les objectifs de ce mémoire sont au nombre de deux. Le premier objectif est scindé en deux : l’objectif 1A est d’évaluer l’apport et la validité/fiabilité de l’analyse descriptive des règlements de compte amorcée par Cordeau dans sa thèse de doctorat de 1991 puis d’étendre la portée de cette analyse descriptive de part et d’autre des années 1970-1986. Ceci sera fait afin de voir si les règlements de compte de la période de Cordeau diffèrent de notre ensemble; l’objectif 1B est d’évaluer différents taux afin de voir lesquels nous permettent de mieux comprendre les grandes tendances des règlements de compte et leurs vagues. Enfin, le deuxième objectif est d’utiliser l’analyse de réseau afin de confirmer certains points ressortant de l’analyse descriptive des règlements de comptes et d’analyser la structure sociale du règlement de compte au Québec entre 1953 et 2013. Méthodologie. En faisant appel à Allô Police et plusieurs autres sources médiatiques, nous avons constitué une base de données des règlements de comptes québécois entre de 1953 à 2013. Nos analyses font appel à une approche holistique qui intègre à la fois l’analyse statistique descriptive, les tableaux croisés, l’analyse temporelle et l’analyse de réseau afin de bien cerner la question des règlements de compte. Résultats. Nos principaux résultats sont au nombre de quatre: 1) les grandes tendances qu’avait trouvées Cordeau entre 1970-1986 s’appliquent pour l’ensemble des règlements de compte de 1953 à 2013. Ainsi, peu de variations importantes ont été observées entre nos règlements de compte et ceux de Cordeau ; 2) les taux alternatifs se basant sur la population carcérale ou criminelle ne permettent pas de mieux comprendre les règlements de compte par rapport à un taux basé sur la population générale. Par contre, les proportions proposées par Morselli et al (2008) amènent une meilleure conception des périodes d’effervescences du milieu; 3) les groupes criminels qui sont plus exposés à la violence sont aussi ceux qui ont le plus recours à la violence et; 4) les indépendants occupent une place importante parmi les victimes de règlements de compte et ont donc une place importante dans le milieu criminel. Conclusion. Nos résultats font état du besoin d’intégrer différentes approches théoriques et méthodologiques afin de bien cerner la question complexe qu’est le règlement de compte. Avec les avenues de recherches identifiées à la fin de ce mémoire, nous espérons que la relève sera en mesure de mettre à profit les apprentissages de ce mémoire.
Resumo:
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.