46 resultados para Théorie de complexité du calcul quantique
Resumo:
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Le but de cette thèse est d’explorer le potentiel sismique des étoiles naines blanches pulsantes, et en particulier celles à atmosphères riches en hydrogène, les étoiles ZZ Ceti. La technique d’astérosismologie exploite l’information contenue dans les modes normaux de vibration qui peuvent être excités lors de phases particulières de l’évolution d’une étoile. Ces modes modulent le flux émergent de l’étoile pulsante et se manifestent principalement en termes de variations lumineuses multi-périodiques. L’astérosismologie consiste donc à examiner la luminosité d’étoiles pulsantes en fonction du temps, afin d’en extraire les périodes, les amplitudes apparentes, ainsi que les phases relatives des modes de pulsation détectés, en utilisant des méthodes standards de traitement de signal, telles que des techniques de Fourier. L’étape suivante consiste à comparer les périodes de pulsation observées avec des périodes générées par un modèle stellaire en cherchant l’accord optimal avec un modèle physique reconstituant le plus fidèlement possible l’étoile pulsante. Afin d’assurer une recherche optimale dans l’espace des paramètres, il est nécessaire d’avoir de bons modèles physiques, un algorithme d’optimisation de comparaison de périodes efficace, et une puissance de calcul considérable. Les périodes des modes de pulsation de modèles stellaires de naines blanches peuvent être généralement calculées de manière précise et fiable sur la base de la théorie linéaire des pulsations stellaires dans sa version adiabatique. Afin de définir dans son ensemble un modèle statique de naine blanche propre à l’analyse astérosismologique, il est nécessaire de spécifier la gravité de surface, la température effective, ainsi que différents paramètres décrivant la disposition en couche de l’enveloppe. En utilisant parallèlement les informations obtenues de manière indépendante (température effective et gravité de surface) par la méthode spectroscopique, il devient possible de vérifier la validité de la solution obtenue et de restreindre de manière remarquable l’espace des paramètres. L’exercice astérosismologique, s’il est réussi, mène donc à la détermination précise des paramètres de la structure globale de l’étoile pulsante et fournit de l’information unique sur sa structure interne et l’état de sa phase évolutive. On présente dans cette thèse l’analyse complète réussie, de l’extraction des fréquences à la solution sismique, de quatre étoiles naines blanches pulsantes. Il a été possible de déterminer les paramètres structuraux de ces étoiles et de les comparer remarquablement à toutes les contraintes indépendantes disponibles dans la littérature, mais aussi d’inférer sur la dynamique interne et de reconstruire le profil de rotation interne. Dans un premier temps, on analyse le duo d’étoiles ZZ Ceti, GD 165 et Ross 548, afin de comprendre les différences entre leurs propriétés de pulsation, malgré le fait qu’elles soient des étoiles similaires en tout point, spectroscopiquement parlant. L’analyse sismique révèle des structures internes différentes, et dévoile la sensibilité de certains modes de pulsation à la composition interne du noyau de l’étoile. Afin de palier à cette sensibilité, nouvellement découverte, et de rivaliser avec les données de qualité exceptionnelle que nous fournissent les missions spatiales Kepler et Kepler2, on développe une nouvelle paramétrisation des profils chimiques dans le coeur, et on valide la robustesse de notre technique et de nos modèles par de nombreux tests. Avec en main la nouvelle paramétrisation du noyau, on décroche enfin le ”Saint Graal” de l’astérosismologie, en étant capable de reproduire pour la première fois les périodes observées à la précision des observations, dans le cas de l’étude sismique des étoiles KIC 08626021 et de GD 1212.
Resumo:
Les algèbres de Temperley-Lieb originales, aussi dites régulières, apparaissent dans de nombreux modèles statistiques sur réseau en deux dimensions: les modèles d'Ising, de Potts, des dimères, celui de Fortuin-Kasteleyn, etc. L'espace d'Hilbert de l'hamiltonien quantique correspondant à chacun de ces modèles est un module pour cette algèbre et la théorie de ses représentations peut être utilisée afin de faciliter la décomposition de l'espace en blocs; la diagonalisation de l'hamiltonien s'en trouve alors grandement simplifiée. L'algèbre de Temperley-Lieb diluée joue un rôle similaire pour des modèles statistiques dilués, par exemple un modèle sur réseau où certains sites peuvent être vides; ses représentations peuvent alors être utilisées pour simplifier l'analyse du modèle comme pour le cas original. Or ceci requiert une connaissance des modules de cette algèbre et de leur structure; un premier article donne une liste complète des modules projectifs indécomposables de l'algèbre diluée et un second les utilise afin de construire une liste complète de tous les modules indécomposables des algèbres originale et diluée. La structure des modules est décrite en termes de facteurs de composition et par leurs groupes d'homomorphismes. Le produit de fusion sur l'algèbre de Temperley-Lieb originale permet de «multiplier» ensemble deux modules sur cette algèbre pour en obtenir un autre. Il a été montré que ce produit pouvait servir dans la diagonalisation d'hamiltoniens et, selon certaines conjectures, il pourrait également être utilisé pour étudier le comportement de modèles sur réseaux dans la limite continue. Un troisième article construit une généralisation du produit de fusion pour les algèbres diluées, puis présente une méthode pour le calculer. Le produit de fusion est alors calculé pour les classes de modules indécomposables les plus communes pour les deux familles, originale et diluée, ce qui vient ajouter à la liste incomplète des produits de fusion déjà calculés par d'autres chercheurs pour la famille originale. Finalement, il s'avère que les algèbres de Temperley-Lieb peuvent être associées à une catégorie monoïdale tressée, dont la structure est compatible avec le produit de fusion décrit ci-dessus. Le quatrième article calcule explicitement ce tressage, d'abord sur la catégorie des algèbres, puis sur la catégorie des modules sur ces algèbres. Il montre également comment ce tressage permet d'obtenir des solutions aux équations de Yang-Baxter, qui peuvent alors être utilisées afin de construire des modèles intégrables sur réseaux.
Resumo:
La fraction d’éjection du ventricule gauche est un excellent marqueur de la fonction cardiaque. Plusieurs techniques invasives ou non sont utilisées pour son calcul : l’angiographie, l’échocardiographie, la résonnance magnétique nucléaire cardiaque, le scanner cardiaque, la ventriculographie radioisotopique et l’étude de perfusion myocardique en médecine nucléaire. Plus de 40 ans de publications scientifiques encensent la ventriculographie radioisotopique pour sa rapidité d’exécution, sa disponibilité, son faible coût et sa reproductibilité intra-observateur et inter-observateur. La fraction d’éjection du ventricule gauche a été calculée chez 47 patients à deux reprises, par deux technologues, sur deux acquisitions distinctes selon trois méthodes : manuelle, automatique et semi-automatique. Les méthodes automatique et semi-automatique montrent dans l’ensemble une meilleure reproductibilité, une plus petite erreur standard de mesure et une plus petite différence minimale détectable. La méthode manuelle quant à elle fournit un résultat systématiquement et significativement inférieur aux deux autres méthodes. C’est la seule technique qui a montré une différence significative lors de l’analyse intra-observateur. Son erreur standard de mesure est de 40 à 50 % plus importante qu’avec les autres techniques, tout comme l’est sa différence minimale détectable. Bien que les trois méthodes soient d’excellentes techniques reproductibles pour l’évaluation de la fraction d’éjection du ventricule gauche, les estimations de la fiabilité des méthodes automatique et semi-automatique sont supérieures à celles de la méthode manuelle.
Resumo:
The objective of this thesis is to understand the impact of satisfaction with innovative benefits on the intention to stay of the information and communications technology industry (ICT) workers. In order to investigate this question, a general research hypothesis was presented based on a literature review and on Blau’s social exchange theory (1964) and Maslow’s theory of needs (1943). The general research hypothesis states that satisfaction with innovative benefits increases intention to stay through time. The data used in this thesis were collected as part of a larger research on the relationships between compensation, training and skills development and attracting and retaining key employees. The longitudinal data come from an office located in Montreal of a major international company from the ICT sector. The study population consists of workers newly hired between April 1st, 2009 and September 30th, 2010. The results confirm the research hypothesis showing that satisfaction with innovative benefits increase intention to stay through time. Among the various innovative benefits studied, the results indicate that it is the satisfaction with the gym at work that best predicts intention to stay of workers. Other innovative benefits significantly related to intention to stay are the games library, the lounge, the medical clinic and the library in the workplace. Also, longitudinal analyses reveal that it is mainly the differences between the individual characteristics of the employees who best explain intention to stay than the differences across time of the same worker. This thesis concludes by discussing the best way for industrial relations managers to use the results in order to retain their employees. Then, the limits of the study and some directions for further research are also presented.
Resumo:
Dans ce mémoire, je cherche à rendre compte de l’inaction des individus à l’égard de la lutte contre les changements climatiques. Je soutiens que la procrastination permet d’expliquer l’inaction de certaines personnes à la fois informées et préoccupées par cet enjeu environnemental. Dans un premier temps, je présente différentes conceptions de la procrastination en philosophie. J’avance que la procrastination n’est pas nécessairement un comportement irrationnel et propose une définition descriptive de celle-ci. Dans un deuxième temps, je valide la légitimité du concept de la procrastination pour décrire l’attitude de certains individus face au changement climatique. Dans un troisième temps, je présente différents facteurs de la procrastination relative au changement climatique, à savoir les émotions négatives, la perspective temporelle, les préférences intransitives et la dissonance cognitive. Je conclus que la procrastination eu égard au changement climatique s’explique ultimement par une stratégie à court terme de régulation des émotions.
Resumo:
Les informations sensorielles sont traitées dans le cortex par des réseaux de neurones co-activés qui forment des assemblées neuronales fonctionnelles. Le traitement visuel dans le cortex est régit par différents aspects des caractéristiques neuronales tels que l’aspect anatomique, électrophysiologique et moléculaire. Au sein du cortex visuel primaire, les neurones sont sélectifs à divers attributs des stimuli tels que l’orientation, la direction, le mouvement et la fréquence spatiale. Chacun de ces attributs conduit à une activité de décharge maximale pour une population neuronale spécifique. Les neurones du cortex visuel ont cependant la capacité de changer leur sélectivité en réponse à une exposition prolongée d’un stimulus approprié appelée apprentissage visuel ou adaptation visuelle à un stimulus non préférentiel. De ce fait, l’objectif principal de cette thèse est d’investiguer les mécanismes neuronaux qui régissent le traitement visuel durant une plasticité induite par adaptation chez des animaux adultes. Ces mécanismes sont traités sous différents aspects : la connectivité neuronale, la sélectivité neuronale, les propriétés électrophysiologiques des neurones et les effets des drogues (sérotonine et fluoxétine). Le modèle testé se base sur les colonnes d’orientation du cortex visuel primaire. La présente thèse est subdivisée en quatre principaux chapitres. Le premier chapitre (A) traite de la réorganisation du cortex visuel primaire suite à une plasticité induite par adaptation visuelle. Le second chapitre (B) examine la connectivité neuronale fonctionnelle en se basant sur des corrélations croisées entre paires neuronales ainsi que sur des corrélations d’activités de populations neuronales. Le troisième chapitre (C) met en liaison les aspects cités précédemment (les effets de l’adaptation visuelle et la connectivité fonctionnelle) aux propriétés électrophysiologiques des neurones (deux classes de neurones sont traitées : les neurones à décharge régulière et les neurones à décharge rapide ou burst). Enfin, le dernier chapitre (D) a pour objectif l’étude de l’effet du couplage de l’adaptation visuelle à l’administration de certaines drogues, notamment la sérotonine et la fluoxétine (inhibiteur sélectif de recapture de la sérotonine). Méthodes En utilisant des enregistrements extracellulaires d’activités neuronales dans le cortex visuel primaire (V1) combinés à un processus d’imagerie cérébrale optique intrinsèque, nous enregistrons l’activité de décharge de populations neuronales et nous examinons l’activité de neurones individuels extraite des signaux multi-unitaires. L’analyse de l’activité cérébrale se base sur différents algorithmes : la distinction des propriétés électrophysiologiques des neurones se fait par calcul de l’intervalle de temps entre la vallée et le pic maximal du potentiel d’action (largeur du potentiel d’action), la sélectivité des neurones est basée sur leur taux de décharge à différents stimuli, et la connectivité fonctionnelle utilise des calculs de corrélations croisées. L’utilisation des drogues se fait par administration locale sur la surface du cortex (après une craniotomie et une durotomie). Résultats et conclusions Dans le premier chapitre, nous démontrons la capacité des neurones à modifier leur sélectivité après une période d’adaptation visuelle à un stimulus particulier, ces changements aboutissent à une réorganisation des cartes corticales suivant un patron spécifique. Nous attribuons ce résultat à la flexibilité de groupes fonctionnels de neurones qui étaient longtemps considérés comme des unités anatomiques rigides. En effet, nous observons une restructuration extensive des domaines d’orientation dans le but de remodeler les colonnes d’orientation où chaque stimulus est représenté de façon égale. Ceci est d’autant plus confirmé dans le second chapitre où dans ce cas, les cartes de connectivité fonctionnelle sont investiguées. En accord avec les résultats énumérés précédemment, les cartes de connectivité montrent également une restructuration massive mais de façon intéressante, les neurones utilisent une stratégie de sommation afin de stabiliser leurs poids de connectivité totaux. Ces dynamiques de connectivité sont examinées dans le troisième chapitre en relation avec les propriétés électrophysiologiques des neurones. En effet, deux modes de décharge neuronale permettent la distinction entre deux classes neuronales. Leurs dynamiques de corrélations distinctes suggèrent que ces deux classes jouent des rôles clés différents dans l’encodage et l’intégration des stimuli visuels au sein d’une population neuronale. Enfin, dans le dernier chapitre, l’adaptation visuelle est combinée avec l’administration de certaines substances, notamment la sérotonine (neurotransmetteur) et la fluoxétine (inhibiteur sélectif de recapture de la sérotonine). Ces deux substances produisent un effet similaire en facilitant l’acquisition des stimuli imposés par adaptation. Lorsqu’un stimulus non optimal est présenté en présence de l’une des deux substances, nous observons une augmentation du taux de décharge des neurones en présentant ce stimulus. Nous présentons un modèle neuronal basé sur cette recherche afin d’expliquer les fluctuations du taux de décharge neuronale en présence ou en absence des drogues. Cette thèse présente de nouvelles perspectives quant à la compréhension de l’adaptation des neurones du cortex visuel primaire adulte dans le but de changer leur sélectivité dans un environnement d’apprentissage. Nous montrons qu’il y a un parfait équilibre entre leurs habiletés plastiques et leur dynamique d’homéostasie.
Resumo:
Ce mémoire vise à analyser le processus de construction de l'identité collective du mouvement queer à Montréal dans un contexte francophone. Bien que plusieurs travaux portent en partie sur les groupes militants queers québécois, aucune recherche ne s'est employée à comprendre comment les militant.es queers à Montréal se constituent comme un collectif qui développe une identité. Pour analyser le processus de construction de l'identité collective du mouvement queer montréalais, je m'appuie sur la théorie de Melucci (1985; 1996), qui définit l'identité collective d'un mouvement selon plusieurs axes : les champs d'action, les moyens employés et les fins visées, ainsi que le mode d'organisation. Afin de répondre à cette question de recherche, j'ai effectué une recherche documentaire ainsi que sept entrevues avec des militant.es queers montréalais.es francophones. L'analyse des données a été faite grâce à divers travaux qui portent sur les champs d'action, les valeurs, les fins et moyens, le mode d'organisation de mouvements contemporains anti-autoritaires et anti-oppressifs, ainsi qu'en fonction de trois dimensions élaborées par Melucci (1985) : le conflit, la solidarité et les limites du système. Je conclus que l'identité collective comme processus s'articule autour de plusieurs enjeux : premièrement, la diversité des champs d'action, les valeurs anti-oppressives, les relations d'affinités, le mode de vie alternatif et le mode d'organisation anti-oppressif des militant.es queers permettent au mouvement de créer une solidarité interne, d'affirmer une position anti-autoritaire qui brise les limites du système dominant et de se différencier du mouvement LGBT mainstream. Par ailleurs, les actions militantes concrètes qui réalisent le changement dans l'ici et maintenant participent à créer une solidarité et une reconnaissance entre militant.es, ainsi qu'à mettre en lumière un conflit avec le système dominant oppressif. Enfin, les perspectives francophones sur le mouvement queer ne semblent pas donner au bilinguisme du mouvement un rôle fondamental dans la construction de son identité collective. Cependant, l'intérêt marqué des militant.es francophones comparativement aux militant.es anglophones pour la politique institutionnelle fait émerger de nouvelles interrogations sur l'impact que pourrait avoir le mélange des cultures francophone et anglophone à Montréal sur la culture politique et l'identité du mouvement.
Resumo:
Hannah Arendt est surtout connue pour avoir écrit une magistrale enquête historique sur le totalitarisme (Les origines du totalitarisme) et pour avoir défendu une conception exigeante de la politique développée dans un langage réputé pour être très hellénisant. Cette façon de concevoir la politique repose principalement sur le concept d’action qu’Arendt travaille à redéfinir au sein d’un contexte historique et d’une tradition qui témoignent, selon elle, d’un « oubli de l’action ». Ce qu’Arendt reproche au premier chef à la tradition de la philosophie politique est d’avoir confondu, dès ses premiers balbutiements, le faire et l’agir, interprétant ce dernier à l’aune de la fabrication (poiesis) et recouvrant du même souffle la spécificité de l’action (praxis). Sa propre théorie politique travaille ainsi à repenser l’action pour elle-même et à en faire de nouveau le centre de la vie politique. C’est donc notamment en se référant aux expériences politiques pré-philosophiques athéniennes qu’Arendt parvient à illustrer les potentialités que recèle l’action comprise comme spontanéité dévoilante. Or, il nous apparaît que ses efforts achoppent finalement sur le contexte moderne et que ce fait n’échappe probablement pas à Arendt elle-même. L’impasse suscitée par la modernité est ainsi à nos yeux l’occasion de mettre au jour un versant plus proprement poétique de l’œuvre d’Arendt, se dessinant en filigrane de sa théorie politique et qui n’est que très peu abordé au sein de la littérature secondaire francophone. Pour ce faire, nous proposons dans un premier temps d’interroger les efforts d’Arendt pour valoriser l’action politique afin de faire ressortir les ressources de ce concept. Dans un second temps, nous confrontons le concept d’action au contexte moderne tel que le conçoit Arendt pour montrer qu’il existe dans ses écrits un modèle alternatif de rapport au monde et à autrui que celui mis en avant par l’action et que cet autre modèle doit énormément au poétique.
Resumo:
Travail réalisé à l’EBSI, Université de Montréal, sous la direction de M. Yvon Lemay dans le cadre du cours SCI6112 – Évaluation des archives, à l'hiver 2016
Resumo:
Travail dirigé présenté en vue de l’obtention du grade de maîtrise en criminologie option sécurité intérieure
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.