340 resultados para Champ scalaire
em Université de Montréal, Canada
Resumo:
Nous étudions différentes situations de distribution de la matière d’une bulle de masse négative. En effet, pour les bulles statiques et à symétrie sphérique, nous commençons par l’hypothèse qui dit que cette bulle, étant une solution des équations d’Einstein, est une déformation au niveau d’un champ scalaire. Nous montrons que cette idée est à rejeter et à remplacer par celle qui dit que la bulle est formée d’un fluide parfait. Nous réussissons à démontrer que ceci est la bonne distribution de matière dans une géométrie Schwarzschild-de Sitter, qu’elle satisfait toutes les conditions et que nous sommes capables de résoudre numériquement ses paramètres de pression et de densité.
Resumo:
Dans ce travail, j’étudierai principalement un modèle abélien de Higgs en 2+1 dimensions, dans lequel un champ scalaire interagit avec un champ de jauge. Des défauts topologiques, nommés vortex, sont créés lorsque le potentiel possède un minimum brisant spontanément la symétrie U(1). En 3+1 dimensions, ces vortex deviennent des défauts à une dimension. Ils ap- paraissent par exemple en matière condensée dans les supraconducteurs de type II comme des lignes de flux magnétique. J’analyserai comment l’énergie des solutions statiques dépend des paramètres du modèle et en particulier du nombre d’enroulement du vortex. Pour le choix habituel de potentiel (un poly- nôme quartique dit « BPS »), la relation entre les masses des deux champs mène à deux types de comportements : type I si la masse du champ de jauge est plus grande que celle du champ sca- laire et type II inversement. Selon le cas, la dépendance de l’énergie au nombre d’enroulement, n, indiquera si les vortex auront tendance à s’attirer ou à se repousser, respectivement. Lorsque le flux emprisonné est grand, les vortex présentent un profil où la paroi est mince, permettant certaines simplifications dans l’analyse. Le potentiel, un polynôme d’ordre six (« non-BPS »), est choisi tel que le centre du vortex se trouve dans le vrai vide (minimum absolu du potentiel) alors qu’à l’infini le champ scalaire se retrouve dans le faux vide (minimum relatif du potentiel). Le taux de désintégration a déjà été estimé par une approximation semi-classique pour montrer l’impact des défauts topologiques sur la stabilité du faux vide. Le projet consiste d’abord à établir l’existence de vortex classi- quement stables de façon numérique. Puis, ma contribution fut une analyse des paramètres du modèle révélant le comportement énergétique de ceux-ci en fonction du nombre d’enroulement. Ce comportement s’avèrera être différent du cas « BPS » : le ratio des masses ne réussit pas à décrire le comportement observé numériquement.
Resumo:
Département de linguistique et de traduction
Resumo:
Département de linguistique et de traduction
Resumo:
Mémoire présenté à la Faculté des études supérieures en vue de l’obtention du grade de maître ès sciences (M.Sc.) en sociologie
Resumo:
Cette thèse porte sur l’amélioration des techniques d’imagerie à haut-contraste permettant la détection directe de compagnons à de faibles séparations de leur étoile hôte. Plus précisément, elle s’inscrit dans le développement du Gemini Planet Imager (GPI) qui est un instrument de deuxième génération pour les télescopes Gemini. Cette caméra utilisera un spectromètre à champ intégral (SCI) pour caractériser les compagnons détectés et pour réduire le bruit de tavelure limitant leur détection et corrigera la turbulence atmosphérique à un niveau encore jamais atteint en utilisant deux miroirs déformables dans son système d’optique adaptative (OA) : le woofer et le tweeter. Le woofer corrigera les aberrations de basses fréquences spatiales et de grandes amplitudes alors que le tweeter compensera les aberrations de plus hautes fréquences ayant une plus faible amplitude. Dans un premier temps, les performances pouvant être atteintes à l’aide des SCIs présentement en fonction sur les télescopes de 8-10 m sont investiguées en observant le compagnon de l’étoile GQ Lup à l’aide du SCI NIFS et du système OA ALTAIR installés sur le télescope Gemini Nord. La technique de l’imagerie différentielle angulaire (IDA) est utilisée pour atténuer le bruit de tavelure d’un facteur 2 à 6. Les spectres obtenus en bandes JHK ont été utilisés pour contraindre la masse du compagnon par comparaison avec les prédictions des modèles atmosphériques et évolutifs à 8−60 MJup, où MJup représente la masse de Jupiter. Ainsi, il est déterminé qu’il s’agit plus probablement d’une naine brune que d’une planète. Comme les SCIs présentement en fonction sont des caméras polyvalentes pouvant être utilisées pour plusieurs domaines de l’astrophysique, leur conception n’a pas été optimisée pour l’imagerie à haut-contraste. Ainsi, la deuxième étape de cette thèse a consisté à concevoir et tester en laboratoire un prototype de SCI optimisé pour cette tâche. Quatre algorithmes de suppression du bruit de tavelure ont été testés sur les données obtenues : la simple différence, la double différence, la déconvolution spectrale ainsi qu’un nouvel algorithme développé au sein de cette thèse baptisé l’algorithme des spectres jumeaux. Nous trouvons que l’algorithme des spectres jumeaux est le plus performant pour les deux types de compagnons testés : les compagnons méthaniques et non-méthaniques. Le rapport signal-sur-bruit de la détection a été amélioré d’un facteur allant jusqu’à 14 pour un compagnon méthanique et d’un facteur 2 pour un compagnon non-méthanique. Dernièrement, nous nous intéressons à certains problèmes liés à la séparation de la commande entre deux miroirs déformables dans le système OA de GPI. Nous présentons tout d’abord une méthode utilisant des calculs analytiques et des simulations Monte Carlo pour déterminer les paramètres clés du woofer tels que son diamètre, son nombre d’éléments actifs et leur course qui ont ensuite eu des répercussions sur le design général de l’instrument. Ensuite, le système étudié utilisant un reconstructeur de Fourier, nous proposons de séparer la commande entre les deux miroirs dans l’espace de Fourier et de limiter les modes transférés au woofer à ceux qu’il peut précisément reproduire. Dans le contexte de GPI, ceci permet de remplacer deux matrices de 1600×69 éléments nécessaires pour une séparation “classique” de la commande par une seule de 45×69 composantes et ainsi d’utiliser un processeur prêt à être utilisé plutôt qu’une architecture informatique plus complexe.
Resumo:
Le champ d’application de la Convention de Vienne de 1980 sur la vente internationale de marchandises constitue une question très délicate. En effet, le caractère abstrait et supplétif de ladite Convention a donné naissance à une jurisprudence fort divergente et à une doctrine rarement en accord. Les difficultés d’application de la Convention démontrent clairement les limites de cette dernière à s’adapter aux nouveaux contrats de vente internationale. Ces difficultés sont-elles dues à une mauvaise interprétation des termes de la convention ? Serait-il juste de compléter les lacunes de la Convention de Vienne par d’autres Conventions telles que les règles d’UNIDROIT ou les principes de droit européen des contrats ? Faut-il aller «au-delà» de la Convention de Vienne ? Toutes ces questions doivent être gardées en tête pour bien analyser le champ d’application de ladite Convention.
Resumo:
Le principe de précaution est devenu une véritable méta-norme, censée encadrer les décisions concernant certains choix scientifiques et technologiques en situation d’incertitudes cumulées et de controverses. Il lie des dimensions scientifique, éthique et politique. Puisqu’il est souvent associé au principe de participation, voire parfois au pluralisme, l’objet principal de cet article est d’analyser les différentes interprétations, souvent partielles, et parfois contradictoires, qui lui furent attribuées lors d’un débat national organisé par le Conseil Economique et Social (français), « Débat sur les OGM et les essais au champ » (2002). Il est vrai que ce principe doit normalement s’appliquer dans des circonstances spécifiques, notamment dans le cas d’une forte incertitude due aux limites de l’expertise scientifique qui ne peut pas servir d’excuses pour ne pas prendre les décisions appropriées, face à des risques qui pourraient provoquer des dommages graves et/ou irréversibles. En 2002 il était déjà formulé dans des lois françaises, censées connues par les principaux protagonistes de ce débat. Plutôt que de raisonner sur le principe de précaution in abstracto, nous allons analyser comment il est « mis à l’épreuve » dans ce cadre institutionnel très original, puisqu’il réunissait experts, étudiants, et quatre “sages”.
Resumo:
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Le sujet de ce mémoire s'attache à circonscrire le champ de l'extase chez Georges Bataille. Il s’agit de délimiter les frontières d’un concept qui, a priori, ne peut en avoir, d’où un paradoxe à résoudre : comment parvenir à poser des limites à ce qui est illimité par essence ? Nous verrons que l’extase bataillienne rompt de façon radicale avec la tradition mystique en créant un concept qui, au lieu d’embrasser l’absolu, le tout, demeure une expérience purement intérieure. Nous nous focaliserons ensuite sur le caractère érotique de ses fondations. Bataille revendique en effet l’essence érotique, et non mystique, de l’extase. Parce que pour Georges Bataille, la mystique c’est l’impossible, nous analyserons enfin l’impasse apparente de son extase. Car si le champ de ce dernier se borne au seuil du mystique, il en résulte une puissance et portée moindres que celles de l’extase proprement mystique. Dès lors, nous nous interrogerons sur les failles d’un tel concept. Étant donné que l’extase bataillienne rejette toute mystique de son champ, il nous faudra nous pencher sur la possibilité de la définir comme un échec. Georges Bataille a-t-il conceptualisé l'extase du drogué ? Ou les débris laissés par le mort de Dieu ? A moins que l'extase bataillienne ne concrétise simplement l'agonie du spirituel... Dans cette recherche, nous définirons des notions batailliennes telles que : « nudité », « angoisse », « dépense improductive », « souveraineté » ou « petite mort ». Et pour ce faire, nous nous concentrerons en priorité sur ces ouvrages : L’expérience intérieure, Ma mère, L’histoire de l’œil, Le bleu du ciel et L’Érotisme.
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Conventional and Reciprocal Approaches to the Forward and Inverse Problems of Electroencephalography
Resumo:
Le problème inverse en électroencéphalographie (EEG) est la localisation de sources de courant dans le cerveau utilisant les potentiels de surface sur le cuir chevelu générés par ces sources. Une solution inverse implique typiquement de multiples calculs de potentiels de surface sur le cuir chevelu, soit le problème direct en EEG. Pour résoudre le problème direct, des modèles sont requis à la fois pour la configuration de source sous-jacente, soit le modèle de source, et pour les tissues environnants, soit le modèle de la tête. Cette thèse traite deux approches bien distinctes pour la résolution du problème direct et inverse en EEG en utilisant la méthode des éléments de frontières (BEM): l’approche conventionnelle et l’approche réciproque. L’approche conventionnelle pour le problème direct comporte le calcul des potentiels de surface en partant de sources de courant dipolaires. D’un autre côté, l’approche réciproque détermine d’abord le champ électrique aux sites des sources dipolaires quand les électrodes de surfaces sont utilisées pour injecter et retirer un courant unitaire. Le produit scalaire de ce champ électrique avec les sources dipolaires donne ensuite les potentiels de surface. L’approche réciproque promet un nombre d’avantages par rapport à l’approche conventionnelle dont la possibilité d’augmenter la précision des potentiels de surface et de réduire les exigences informatiques pour les solutions inverses. Dans cette thèse, les équations BEM pour les approches conventionnelle et réciproque sont développées en utilisant une formulation courante, la méthode des résidus pondérés. La réalisation numérique des deux approches pour le problème direct est décrite pour un seul modèle de source dipolaire. Un modèle de tête de trois sphères concentriques pour lequel des solutions analytiques sont disponibles est utilisé. Les potentiels de surfaces sont calculés aux centroïdes ou aux sommets des éléments de discrétisation BEM utilisés. La performance des approches conventionnelle et réciproque pour le problème direct est évaluée pour des dipôles radiaux et tangentiels d’excentricité variable et deux valeurs très différentes pour la conductivité du crâne. On détermine ensuite si les avantages potentiels de l’approche réciproquesuggérés par les simulations du problème direct peuvent êtres exploités pour donner des solutions inverses plus précises. Des solutions inverses à un seul dipôle sont obtenues en utilisant la minimisation par méthode du simplexe pour à la fois l’approche conventionnelle et réciproque, chacun avec des versions aux centroïdes et aux sommets. Encore une fois, les simulations numériques sont effectuées sur un modèle à trois sphères concentriques pour des dipôles radiaux et tangentiels d’excentricité variable. La précision des solutions inverses des deux approches est comparée pour les deux conductivités différentes du crâne, et leurs sensibilités relatives aux erreurs de conductivité du crâne et au bruit sont évaluées. Tandis que l’approche conventionnelle aux sommets donne les solutions directes les plus précises pour une conductivité du crâne supposément plus réaliste, les deux approches, conventionnelle et réciproque, produisent de grandes erreurs dans les potentiels du cuir chevelu pour des dipôles très excentriques. Les approches réciproques produisent le moins de variations en précision des solutions directes pour différentes valeurs de conductivité du crâne. En termes de solutions inverses pour un seul dipôle, les approches conventionnelle et réciproque sont de précision semblable. Les erreurs de localisation sont petites, même pour des dipôles très excentriques qui produisent des grandes erreurs dans les potentiels du cuir chevelu, à cause de la nature non linéaire des solutions inverses pour un dipôle. Les deux approches se sont démontrées également robustes aux erreurs de conductivité du crâne quand du bruit est présent. Finalement, un modèle plus réaliste de la tête est obtenu en utilisant des images par resonace magnétique (IRM) à partir desquelles les surfaces du cuir chevelu, du crâne et du cerveau/liquide céphalorachidien (LCR) sont extraites. Les deux approches sont validées sur ce type de modèle en utilisant des véritables potentiels évoqués somatosensoriels enregistrés à la suite de stimulation du nerf médian chez des sujets sains. La précision des solutions inverses pour les approches conventionnelle et réciproque et leurs variantes, en les comparant à des sites anatomiques connus sur IRM, est encore une fois évaluée pour les deux conductivités différentes du crâne. Leurs avantages et inconvénients incluant leurs exigences informatiques sont également évalués. Encore une fois, les approches conventionnelle et réciproque produisent des petites erreurs de position dipolaire. En effet, les erreurs de position pour des solutions inverses à un seul dipôle sont robustes de manière inhérente au manque de précision dans les solutions directes, mais dépendent de l’activité superposée d’autres sources neurales. Contrairement aux attentes, les approches réciproques n’améliorent pas la précision des positions dipolaires comparativement aux approches conventionnelles. Cependant, des exigences informatiques réduites en temps et en espace sont les avantages principaux des approches réciproques. Ce type de localisation est potentiellement utile dans la planification d’interventions neurochirurgicales, par exemple, chez des patients souffrant d’épilepsie focale réfractaire qui ont souvent déjà fait un EEG et IRM.
Resumo:
De nos jours, il est bien accepté que le cycle magnétique de 11 ans du Soleil est l'oeuvre d'une dynamo interne présente dans la zone convective. Bien qu'avec la puissance de calculs des ordinateurs actuels il soit possible, à l'aide de véritables simulations magnétohydrodynamiques, de résoudre le champ magnétique et la vitessse dans toutes les directions spatiales, il n'en reste pas moins que pour étudier l'évolution temporelle et spatiale de la dynamo solaire à grande échelle, il reste avantageux de travailler avec des modèles plus simples. Ainsi, nous avons utilisé un modèle simplifié de la dynamo solaire, nommé modèle de champ moyen, pour mieux comprendre les mécanismes importants à l'origine et au maintien de la dynamo solaire. L'insertion d'un tenseur-alpha complet dans un modèle dynamo de champ moyen, provenant d'un modèle global-MHD [Ghizaru et al., 2010] de la convection solaire, nous a permis d'approfondir le rôle que peut jouer la force électromotrice dans les cycles magnétiques produits par ce modèle global. De cette façon, nous avons pu reproduire certaines caractéristiques observées dans les cycles magnétiques provenant de la simulation de Ghizaru et al., 2010. Tout d'abord, le champ magnétique produit par le modèle de champ moyen présente deux modes dynamo distincts. Ces modes, de périodes similaires, sont présents et localisés sensiblement aux mêmes rayons et latitudes que ceux produits par le modèle global. Le fait que l'on puisse reproduire ces deux modes dynamo est dû à la complexité spatiale du tenseur-alpha. Par contre, le rapport entre les périodes des deux modes présents dans le modèle de champ moyen diffère significativement de celui trouvé dans le modèle global. Par ailleurs, on perd l'accumulation d'un fort champ magnétique sous la zone convective dans un modèle où la rotation différentielle n'est plus présente. Ceci suggère que la présence de rotation différentielle joue un rôle non négligeable dans l'accumulation du champ magnétique à cet endroit. Par ailleurs, le champ magnétique produit dans un modèle de champ moyen incluant un tenseur-alpha sans pompage turbulent global est très différent de celui produit par le tenseur original. Le pompage turbulent joue donc un rôle fondamental au sein de la distribution spatiale du champ magnétique. Il est important de souligner que les modèles dépourvus d'une rotation différentielle, utilisant le tenseur-alpha original ou n'utilisant pas de pompage turbulent, parviennent tous deux à produire une dynamo oscillatoire. Produire une telle dynamo à l'aide d'un modèle de ce type n'est pas évident, a priori. Finalement, l'intensité ainsi que le type de profil de circulation méridienne utilisés sont des facteurs affectant significativement la distribution spatiale de la dynamo produite.
Resumo:
Quel est le champ d’action des Amérindiens dans le contexte politique canadien? Malgré les tentatives de l’État canadien de briser la structure politique traditionnelle des Autochtones en introduisant le système électif et politique du conseil de bande, ceux-ci sont loin d'avoir été des victimes passives. L'étude du leadership interstitiel est la ligne directrice de cette thèse car il est la clé d’une pratique politique « in the cracks » qui confère un pouvoir marginal aux Amérindiens. En s'intéressant aux conditions historiques et sociales de déploiement de l’arène politique en milieu de réserve, il est possible de comprendre la quotidienneté et la contemporanéité de l’exercice du pouvoir au sein d’une population minoritaire fortement politisée. La recherche ethnographique porte sur la politique locale de la communauté algonquine de Kitigan Zibi (Québec). L’analyse des acteurs anishnabeg a montré une variabilité du leadership politique chez les Algonquins et l’existence de différents types de leader malgré l’imposition d’une fonction de chef par la Loi sur les Indiens. Le contrôle des affaires politiques officielles d’une bande par les agents coloniaux, c'est-à-dire les missionnaires et les agents indiens, n’a pas donné lieu à un contrôle total de sa dynamique politique interne et de ses membres. L'enquête de terrain a dévoilé que les diverses manifestations et actions politiques menées par les Anishnabeg s’avèrent être des stratégies du pouvoir dans la marge, une forme quotidienne de résistance face aux nouvelles façons de faire la politique établies par les autorités canadiennes, des ruses et des tactiques employées pour tenter de changer le système formel en remettant en question le pouvoir des Affaires indiennes. La contestation et la résistance ne sont toutefois pas l’unique moteur du leadership et de la politique amérindienne. En fait, le leadership politique chez les Kitigan Zibi Anishnabeg est aussi basé sur diverses représentations (traditionnelles, spirituelles, symboliques) qui ont permis aux Algonquins de préserver une identité politique malgré certaines ruptures et transformations introduites dans leur société par les colonisateurs. Les ambiguïtés, les contradictions et les paradoxes de la quotidienneté politique d’une bande autochtone ne sont pas que le résultat de la rencontre d’un univers politique Autre, mais aussi l’aboutissement de l’évolution et de la reconstruction d’un système sociopolitique traditionnel et de ses dynamiques internes reliées au pouvoir, d’une redéfinition de l’autorité et de la légitimité du politique, de l'essor de leaders nouveau genre pour répondre adéquatement aux exigences politiques de la vie en réserve. La politique de réserve n’est pas une chose concrète mais plutôt une dynamique dans un temps et dans un lieu donné, au chevauchement culturel de diverses traditions politiques et formes d’autorité, au truchement de divers espaces (imposé ou symbolique) et institutions (formelle et informelle). Les Algonquins se renouvellent continuellement politiquement au sein de leur système. Ceci n’est pas un effet de l’acculturation, d’une hybridité ou de la modernité mais relève bien de la tradition. Le rattachement de fonctions et dynamiques traditionnelles à la structure formelle constitue un début de gouvernance « par le bas ». Cette dernière renouvelle de l’intérieur, par l’établissement d’un dialogue, la relation entre les leaders autochtones et les représentants de l’État, ce qui donne aux acteurs locaux une marge de manœuvre. Les Algonquins ont saisi les incompatibilités des deux systèmes – blanc et autochtone – pour définir un nouveau territoire, « in the cracks », qui devient leur domaine d’action. L'analyse de la flexibilité du leadership algonquin, de la vision eurocanadienne du leadership amérindien, de l’usage instrumental des exigences de l’État, des élections et des éligibles contemporains, de l'empowerment des femmes algonquines et du leadership féminin en milieu de réserve, a révélé que le leadership interstitiel est une force politique pour les Kitigan Zibi Anishnabeg. En portant un regard critique sur la politique locale dans le quotidien d'une bande et en incluant les voix autochtones, il est possible d’observer le processus de décolonisation et des formes embryonnaires de pratiques postcoloniales au sein des réserves. Cette recherche a démontré que le chef et les autres leaders sont au cœur de cette dynamique politique dans les marges, de l’essor et de l’émancipation politique de leur bande.