489 resultados para Théorie de complexité du calcul quantique
Resumo:
Le travail de modélisation a été réalisé à travers EGSnrc, un logiciel développé par le Conseil National de Recherche Canada.
Resumo:
Cette thèse traite de la structure électronique de supraconducteurs telle que déterminée par la théorie de la fonctionnelle de la densité. Une brève explication de cette théorie est faite dans l’introduction. Le modèle de Hubbard est présenté pour pallier à des problèmes de cette théorie face à certains matériaux, dont les cuprates. L’union de deux théories donne la DFT+U, une méthode permettant de bien représenter certains systèmes ayant des électrons fortement corrélés. Par la suite, un article traitant du couplage électron- phonon dans le supraconducteur NbC1−xNx est présenté. Les résultats illustrent bien le rôle de la surface de Fermi dans le mécanisme d’appariement électronique menant à la supraconductivité. Grâce à ces résultats, un modèle est développé qui permet d’expliquer comment la température de transition critique est influencée par le changement des fré- quences de vibration du cristal. Ensuite, des résultats de calcul d’oscillations quantiques obtenus par une analyse approfondie de surfaces de Fermi, permettant une comparaison directe avec des données expérimentales, sont présentés dans deux articles. Le premier traite d’un matériau dans la famille des pnictures de fer, le LaFe2P2. L’absence de su- praconductivité dans ce matériau s’explique par la différence entre sa surface de Fermi obtenue et celle du supraconducteur BaFe2As2. Le second article traite du matériau à fermions lourds, le YbCoIn5. Pour ce faire, une nouvelle méthode efficace de calcul des fréquences de Haas-van Alphen est développée. Finalement, un dernier article traitant du cuprate supraconducteur à haute température critique YBa2Cu3O6.5 est présenté. À l’aide de la DFT+U, le rôle de plusieurs ordres magnétiques sur la surface de Fermi est étudié. Ces résultats permettent de mieux comprendre les mesures d’oscillations quan- tiques mesurées dans ce matériau.
Resumo:
L’histoire du concept d’idéologie est riche des différentes définitions qui ont tenté de le circonscrire, en tension entre la description de visions du monde et la dénonciation de la « fausse conscience ». Chez les penseurs regroupés sous le nom d’ « École de Francfort », l’idéologie en vient à équivaloir au phénomène de l’industrie culturelle, c’est-à-dire la mise au service de la raison technique dans la production de la culture. Le statut du cinéma est intéressant à cet égard : non seulement est-ce un art né à l’époque industrielle et indissociable des possibilités techniques offertes par celle-ci, mais il a été mobilisé pour de nombreuses entreprises propagandistes, plus ou moins subtiles. La question directrice de l’interrogation est donc la suivante : selon la théorie critique de l’École de Francfort, le cinéma peut-il être considéré comme de l’art ou est-il confiné au domaine de l’idéologie ? Autrement dit, le cinéma peut-il revendiquer un statut qui ne ferait pas de lui qu’un support de la domination de l’humain par l’humain ?
Resumo:
Dans ce mémoire, nous nous pencherons tout particulièrement sur une primitive cryptographique connue sous le nom de partage de secret. Nous explorerons autant le domaine classique que le domaine quantique de ces primitives, couronnant notre étude par la présentation d’un nouveau protocole de partage de secret quantique nécessitant un nombre minimal de parts quantiques c.-à-d. une seule part quantique par participant. L’ouverture de notre étude se fera par la présentation dans le chapitre préliminaire d’un survol des notions mathématiques sous-jacentes à la théorie de l’information quantique ayant pour but primaire d’établir la notation utilisée dans ce manuscrit, ainsi que la présentation d’un précis des propriétés mathématique de l’état de Greenberger-Horne-Zeilinger (GHZ) fréquemment utilisé dans les domaines quantiques de la cryptographie et des jeux de la communication. Mais, comme nous l’avons mentionné plus haut, c’est le domaine cryptographique qui restera le point focal de cette étude. Dans le second chapitre, nous nous intéresserons à la théorie des codes correcteurs d’erreurs classiques et quantiques qui seront à leur tour d’extrême importances lors de l’introduction de la théorie quantique du partage de secret dans le chapitre suivant. Dans la première partie du troisième chapitre, nous nous concentrerons sur le domaine classique du partage de secret en présentant un cadre théorique général portant sur la construction de ces primitives illustrant tout au long les concepts introduits par des exemples présentés pour leurs intérêts autant historiques que pédagogiques. Ceci préparera le chemin pour notre exposé sur la théorie quantique du partage de secret qui sera le focus de la seconde partie de ce même chapitre. Nous présenterons alors les théorèmes et définitions les plus généraux connus à date portant sur la construction de ces primitives en portant un intérêt particulier au partage quantique à seuil. Nous montrerons le lien étroit entre la théorie quantique des codes correcteurs d’erreurs et celle du partage de secret. Ce lien est si étroit que l’on considère les codes correcteurs d’erreurs quantiques étaient de plus proches analogues aux partages de secrets quantiques que ne leur étaient les codes de partage de secrets classiques. Finalement, nous présenterons un de nos trois résultats parus dans A. Broadbent, P.-R. Chouha, A. Tapp (2009); un protocole sécuritaire et minimal de partage de secret quantique a seuil (les deux autres résultats dont nous traiterons pas ici portent sur la complexité de la communication et sur la simulation classique de l’état de GHZ).
Resumo:
Si l’approche par compétences au Canada et aux États-Unis est particulièrement valorisée pour orienter la pratique des professionnels de la santé (PDS) – et en bioéthique clinique –, les travaux permettant de mieux comprendre les fondements psychologiques, ontologiques et philosophiques de ces compétences sont peu présents dans la littérature en bioéthique. Les principaux outils actuellement disponibles se divisent généralement en quatre principales catégories : 1) les documents officiels (codes de déontologie, règlements institutionnels, etc.); 2) les principales théories éthiques (éthique de la discussion, éthique de la vertu, principisme, etc.); 3) les ouvrages de référence scientifiques; 4) les outils de prise de décision éthique. Ces documents sont des incontournables pour les bioéthiciens et les PDS, mais leur disparité, voire leur contenu parfois contradictoire, jumelée à une compréhension limitée de l’éthique, est souvent source de confusion dans les processus décisionnels et peut être la cause de comportements ne répondant pas aux standards éthiques des pratiques professionnelles. Notre recherche constitue une réflexion qui s’inscrit en amont de ces outils dont le caractère pragmatique a le désavantage de simplifier la réflexion théorique au profit de données plus concrètes. Nos travaux visent à développer les bases d’un modèle flexible et inclusif – le modèle de la déontologie réflexive (MDR) – permettant de : 1) poser les principaux repères philosophiques, sociaux et déontologiques des problématiques éthiques rencontrées en pratique; 2) saisir les principales tensions éthiques inhérentes à cette complexité; 3) mieux comprendre, dans une perspective psychologique et développementale, les exigences personnelles et professionnelles qu’impose le statut de professionnel de la santé dans le contexte actuel des soins de santé. Entreprise théorique, ce projet consiste principalement à mettre en relation dynamique un ensemble de dimensions (légale, éthique, clinique, sociale, psychologique) à l’oeuvre dans la rencontre du bioéthicien et du PDS avec la complexité des situations éthiques, en s’inspirant du concept de sensibilité éthique de la « petite éthique » de Paul Ricoeur (1990), du modèle des quatre composantes de Rest (1994) et de la théorie du soi et des modes identitaires d’Augusto Blasi (1993). Ce processus implique trois étapes successives : 1) une mise en ii perspective de la posture épistémologique particulière du bioéthicien et du PDS à la lumière de la « petite éthique » de Ricoeur; 2) une revue de la littérature interdisciplinaire sur le concept de sensibilité éthique afin d’en proposer une définition et de le mettre en perspective avec d’autres compétences éthiques; 3) le développement d’un cadre de référence en matière d’identité éthique professionnelle (professional ethics identity tendencies, PEIT), inspiré de la théorie du soi et des modes identitaires de Blasi. Ces PEIT proposent un repère normatif aux exigences liées à la construction de l'identité en contexte de pratique des PDS et suggèrent des pistes de réflexion quant à la formation et à la recherche en éthique professionnelle. Cette recherche souhaite établir des fondements théoriques pour le développement ultérieur du modèle de la déontologie réflexive (MDR).
Resumo:
La thèse insiste sur les différents aspects du terme interprétation. Si son sens varie d’une discipline à l’autre, il varie également d’un juriste à un autre. Partant du constat de l’inadéquation de la théorie classique reposant sur la distinction entre méthode subjective et méthode objective d’interprétation, la thèse propose une nouvelle théorie interprétative basée sur les théories de la communication (la rhétorique et la pragmatique). La théorie pragmatique ainsi développée est par la suite illustrée à l’aide de la jurisprudence de la Cour d’appel du Québec. Ceci afin de démontrer qu’il n’y a pas une théorie interprétative, mais bien des théories interprétatives du contrat au sein des magistrats. Ces théories se distinguent par la prépondérance qu’elles accordent aux arguments de volonté, de logique et d’effectivité. De plus, la thèse fait la démonstration de la nécessité de distinguer entre la production de la norme (opération intellectuelle suivie par l’interprète inaccessible pour l’auditoire) et la justification de la norme (argumentation développée par l’interprète afin de convaincre l’auditoire). S’il peut y avoir adéquation entre ces deux étapes, il peut également y avoir discordance entre le processus suivi afin d’arriver au résultat interprétatif et la justification de ce dernier. Tel est le cas notamment lorsque l’interprète argumente à l’aide de la théorie de l’acte clair voulant qu’un texte clair n’ait pas besoin d’être interprété.
Resumo:
Thèse réalisée en cotutelle avec l'Institut d’études politiques d'Aix-en-Provence, École doctorale de Sciences Po, Programme doctoral en sciences de l’information et de la communication
Resumo:
Le contenu de cette thèse est divisé de la façon suivante. Après un premier chapitre d’introduction, le Chapitre 2 est consacré à introduire aussi simplement que possible certaines des théories qui seront utilisées dans les deux premiers articles. Dans un premier temps, nous discuterons des points importants pour la construction de l’intégrale stochastique par rapport aux semimartingales avec paramètre spatial. Ensuite, nous décrirons les principaux résultats de la théorie de l’évaluation en monde neutre au risque et, finalement, nous donnerons une brève description d’une méthode d’optimisation connue sous le nom de dualité. Les Chapitres 3 et 4 traitent de la modélisation de l’illiquidité et font l’objet de deux articles. Le premier propose un modèle en temps continu pour la structure et le comportement du carnet d’ordres limites. Le comportement du portefeuille d’un investisseur utilisant des ordres de marché est déduit et des conditions permettant d’éliminer les possibilités d’arbitrages sont données. Grâce à la formule d’Itô généralisée il est aussi possible d’écrire la valeur du portefeuille comme une équation différentielle stochastique. Un exemple complet de modèle de marché est présenté de même qu’une méthode de calibrage. Dans le deuxième article, écrit en collaboration avec Bruno Rémillard, nous proposons un modèle similaire mais cette fois-ci en temps discret. La question de tarification des produits dérivés est étudiée et des solutions pour le prix des options européennes de vente et d’achat sont données sous forme explicite. Des conditions spécifiques à ce modèle qui permettent d’éliminer l’arbitrage sont aussi données. Grâce à la méthode duale, nous montrons qu’il est aussi possible d’écrire le prix des options européennes comme un problème d’optimisation d’une espérance sur en ensemble de mesures de probabilité. Le Chapitre 5 contient le troisième article de la thèse et porte sur un sujet différent. Dans cet article, aussi écrit en collaboration avec Bruno Rémillard, nous proposons une méthode de prévision des séries temporelles basée sur les copules multivariées. Afin de mieux comprendre le gain en performance que donne cette méthode, nous étudions à l’aide d’expériences numériques l’effet de la force et la structure de dépendance sur les prévisions. Puisque les copules permettent d’isoler la structure de dépendance et les distributions marginales, nous étudions l’impact de différentes distributions marginales sur la performance des prévisions. Finalement, nous étudions aussi l’effet des erreurs d’estimation sur la performance des prévisions. Dans tous les cas, nous comparons la performance des prévisions en utilisant des prévisions provenant d’une série bivariée et d’une série univariée, ce qui permet d’illustrer l’avantage de cette méthode. Dans un intérêt plus pratique, nous présentons une application complète sur des données financières.
Resumo:
Dans cette thèse, nous présentons quelques analyses théoriques récentes ainsi que des observations expérimentales de l’effet tunnel quantique macroscopique et des tran- sitions de phase classique-quantique dans le taux d’échappement des systèmes de spins élevés. Nous considérons les systèmes de spin biaxial et ferromagnétiques. Grâce à l’approche de l’intégral de chemin utilisant les états cohérents de spin exprimés dans le système de coordonnées, nous calculons l’interférence des phases quantiques et leur distribution énergétique. Nous présentons une exposition claire de l’effet tunnel dans les systèmes antiferromagnétiques en présence d’un couplage d’échange dimère et d’une anisotropie le long de l’axe de magnétisation aisé. Nous obtenons l’énergie et la fonc- tion d’onde de l’état fondamentale ainsi que le premier état excité pour les systèmes de spins entiers et demi-entiers impairs. Nos résultats sont confirmés par un calcul utilisant la théorie des perturbations à grand ordre et avec la méthode de l’intégral de chemin qui est indépendant du système de coordonnées. Nous présentons aussi une explica- tion claire de la méthode du potentiel effectif, qui nous laisse faire une application d’un système de spin quantique vers un problème de mécanique quantique d’une particule. Nous utilisons cette méthode pour analyser nos modèles, mais avec la contrainte d’un champ magnétique externe ajouté. La méthode nous permet de considérer les transitions classiques-quantique dans le taux d’échappement dans ces systèmes. Nous obtenons le diagramme de phases ainsi que les températures critiques du passage entre les deux régimes. Nous étendons notre analyse à une chaine de spins d’Heisenberg antiferro- magnétique avec une anisotropie le long d’un axe pour N sites, prenant des conditions frontière périodiques. Pour N paire, nous montrons que l’état fondamental est non- dégénéré et donné par la superposition des deux états de Néel. Pour N impair, l’état de Néel contient un soliton, et, car la position du soliton est indéterminée, l’état fondamen- tal est N fois dégénéré. Dans la limite perturbative pour l’interaction d’Heisenberg, les fluctuations quantiques lèvent la dégénérescence et les N états se réorganisent dans une bande. Nous montrons qu’à l’ordre 2s, où s est la valeur de chaque spin dans la théorie des perturbations dégénérées, la bande est formée. L’état fondamental est dégénéré pour s entier, mais deux fois dégénéré pour s un demi-entier impair, comme prévu par le théorème de Kramer
Resumo:
Malgré une baisse importante de nouvelles infections, l’Afrique subsaharienne et la région des Caraïbes demeurent fortement touchées par l’épidémie du VIH/sida. La diaspora vivant ailleurs en Occident n’est pas épargnée : les communautés originaires de ces pays étant surreprésentées dans la cohorte des personnes vivant avec le VIH. De plus, ces individus rencontrent des difficultés spécifiques en matière d’accès au conseil et dépistage du VIH. Compte tenu l’importance de l’accessibilité à ce service dans la lutte contre le VIH, il devient crucial de mieux en cerner les enjeux. Fort de ces différents constats, le projet « Moi je fais le test » dont l’objectif était d’augmenter l’accès au conseil et dépistage du VIH a été déployé à Montréal en 2010. Notant le peu d’interventions recensées faisant la promotion du dépistage du VIH dans les communautés originaires de pays à forte prévalence pour le VIH, l’objectif de la présente évaluation est double : documenter le projet et évaluer l’implantation de ce dernier. L’évaluation réalisée sous la forme d’une étude de cas sera articulée autour de deux pôles : la théorie de changement sous-tendant le projet ainsi que le processus d’implantation. Les perspectives rapportées par les partenaires du projet de même que les éléments liés à l’implantation démontrent la complexité de mener des actions conjointes, même de tailles modestes. Dans la mesure où les approches combinées de prévention du VIH sont encouragées, l’évaluation du présent projet illustre de façon éloquente les défis du déploiement de projet similaires à l’échelle nationale et internationale.
Resumo:
L'objectif poursuivi dans ce mémoire est de montrer que le néo-républicanisme possède les outils les plus efficaces pour penser la réconciliation des droits individuels, fondement des États de droits occidentaux contemporains, et des droits collectifs que peuvent légitimement réclamer les collectivités nationales. Dans cette visée, et comme de nombreux auteurs libéraux se sont attaqués à cette question dans les dernières décennies, j'expose d'abord trois stratégies libérales pour traiter cette possible réconciliation tout en faisant ressortir leurs faiblesses respectives. J'avance qu'aucune de ces stratégies ne permet vraiment de comprendre comment un régime de droits collectifs et un régime de droits individuels peuvent être articulés de façon cohérente. J'argue ensuite que le néo-républicanisme, parce qu'il comprend la liberté non pas comme l'absence d'interférence, mais comme un statut de non-domination, permet de voir que les droits collectifs des groupes nationaux et les droits individuels sont nécessairement compatibles, parce qu'ils s'organisent en fonction du même idéal. Les droits d'un individu et ceux de sa collectivité nationale sont, d'une certaine manière, les deux faces d'une même médaille, la non-domination individuelle dépendant de la non-domination du groupe national auquel l'individu appartient. En dernier lieu, je soutiens que cette compréhension du rapport entre les deux régimes de droits devrait se traduire par un ensemble de mesures institutionnelles concrètes dont la plus importante est la reconnaissance d'un droit, pour les collectivités nationales, à l'autodétermination.
Resumo:
Cette thèse est divisée en trois parties. Une première section présente les résultats de l'étude de la formation de polarons magnétiques liés (BMP) dans le ferroaimant EuB6 par diffusion de neutrons à petits angles (SANS). La nature magnétique du système ferromagnétique est observée sous une température critique de 15K. La signature des BMP n'apparaît pas dans la diffusion de neutrons, mais ces mesures permettent de confirmer une limite inférieure de 100\AA à la longueur de cohérence des BMP (xi_{Lower}). Dans un second temps, l'étude du LaRhSi3, un supraconducteur sans symétrie d'inversion, par muSR et ZF-muSR nous permet de sonder le comportement magnétique du système dans la phase supraconductrice. Aucun champ magnétique interne n'a été détecté en ZF-muSR sous la température critique (T_c = 2.2K). Cela indique que la phase supraconductrice ne porte pas de moment cinétique intrinsèque. L'analyse du spectre d'asymétrie sous l'application d'un champ magnétique externe nous apprend que le système est faiblement type II par l'apparition de la signature de domaines magnétiques typique d'un réseau de vortex entre H_{c1}(0) et H_{c2}(0), respectivement de 80+/- 5 et 169.0 +/- 0.5 G. Finalement, la troisième section porte sur l'étude du champ magnétique interne dans l'antiferroaimant organique NIT-2Py. L'observation d'une dépendance en température des champs magnétiques internes aux sites d'implantation muonique par ZF-muSR confirme la présence d'une interaction à longue portée entre les moments cinétiques moléculaires. Ces valeurs de champs internes, comparées aux calculs basés sur la densité de spins obtenue par calculs de la théorie de la fonctionnelle de la densité, indiquent que la moitié des molécules se dimérisent et ne contribuent pas à l'ordre antiferromagnétique. La fraction des molécules contribuant à l'ordre antiferromagnétique sous la température critique (T_c = 1.33 +/- 0.01K) forme des chaines uniformément polarisées selon l'axe (1 0 -2). Ces chaines interagissent antiferromagnétiquement entre elles le long de l'axe (0 1 0) et ferromagnétiquement entre les plan [-1 0 2].
Resumo:
Le présent mémoire de maîtrise se propose d’approfondir l’interprétation kantienne du penchant au mal comme une manière de penser, en supposant qu’il est possible de décrire cette forme de pensée et d’en dériver une image de l’homme moralement mauvaise. Pour ce faire, la présente étude comprend le penchant au mal moral comme une manière de penser qui opère dans un double mouvement : premièrement, comme une inversion de l’ordre moral qui permet à l’agent de subordonner le bon principe au mauvais et, deuxièmement, comme un détournement qui permet à l’agent d’étouffer la voix de sa conscience afin de s’auto persuader que ses intentions égoïstes sont justes. C’est dans ce double mouvement que la présente étude trouve sa structure.
Resumo:
La thèse est divisée principalement en deux parties. La première partie regroupe les chapitres 2 et 3. La deuxième partie regroupe les chapitres 4 et 5. La première partie concerne l'échantillonnage de distributions continues non uniformes garantissant un niveau fixe de précision. Knuth et Yao démontrèrent en 1976 comment échantillonner exactement n'importe quelle distribution discrète en n'ayant recours qu'à une source de bits non biaisés indépendants et identiquement distribués. La première partie de cette thèse généralise en quelque sorte la théorie de Knuth et Yao aux distributions continues non uniformes, une fois la précision fixée. Une borne inférieure ainsi que des bornes supérieures pour des algorithmes génériques comme l'inversion et la discrétisation figurent parmi les résultats de cette première partie. De plus, une nouvelle preuve simple du résultat principal de l'article original de Knuth et Yao figure parmi les résultats de cette thèse. La deuxième partie concerne la résolution d'un problème en théorie de la complexité de la communication, un problème qui naquit avec l'avènement de l'informatique quantique. Étant donné une distribution discrète paramétrée par un vecteur réel de dimension N et un réseau de N ordinateurs ayant accès à une source de bits non biaisés indépendants et identiquement distribués où chaque ordinateur possède un et un seul des N paramètres, un protocole distribué est établi afin d'échantillonner exactement ladite distribution.
Resumo:
La recherche présentée dans le cadre de ce mémoire porte sur le développement de la Théorie linguistique de la traduction telle qu’élaborée par des traducteurs soviétiques à partir des années 1950. Ce mémoire vise à démontrer les particularités de l’évolution des connaissances traductologiques sous la pression politique, idéologique et institutionnelle du régime soviétique (1922-1991). En particulier, le travail cherche à expliquer les raisons qui ont abouti à l’isolement théorique de la traductologie russe. À partir de la théorie du polysystème littéraire d’Even-Zohar et de son analyse de la structure des systèmes littéraires, ce mémoire examine la structure et l’évolution des différents facteurs (producteur, institutions, produit, répertoire, marché) qui ont façonné la configuration spécifique de la Théorie linguistique de la traduction en tant que produit du système soviétique de traduction, tel qu’il se développe dans les conditions particulières du polysystème littéraire soviétique. L’analyse des travaux des auteurs dits « canonisés » de l’approche linguistique russe (Fyodorov, Retsker, Švejtser, Barkhoudarov, Komissarov) permet de montrer comment la Théorie linguistique de la traduction s’est imposée comme la seule théorie capable de survivre au contexte soviétique de pression idéologique et de contrôle total du régime communiste. Ce sont ces facteurs qui expliquent aussi le décalage théorique et institutionnel observé entre les traductologies russe et occidentale.