995 resultados para Deformation theory
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
L’approche des capabilités a été caractérisée par un développement fulgurant au cours des vingt-cinq dernières années. Bien que formulée à l’origine par Amartya Sen, détenteur du Prix Nobel en économie, Martha Nussbaum reprit cette approche dans le but de s’en servir comme fondation pour une théorie éthico-politique intégrale du bien. Cependant, la version de Nussbaum s’avéra particulièrement vulnérable à plusieurs critiques importantes, mettant sérieusement en doute son efficacité globale. À la lumière de ces faits, cette thèse vise à évaluer la pertinence théorique et pratique de l’approche des capabilités de Nussbaum, en examinant trois groupes de critiques particulièrement percutantes formulées à son encontre.
Resumo:
Gowers, dans son article sur les matrices quasi-aléatoires, étudie la question, posée par Babai et Sos, de l'existence d'une constante $c>0$ telle que tout groupe fini possède un sous-ensemble sans produit de taille supérieure ou égale a $c|G|$. En prouvant que, pour tout nombre premier $p$ assez grand, le groupe $PSL_2(\mathbb{F}_p)$ (d'ordre noté $n$) ne posséde aucun sous-ensemble sans produit de taille $c n^{8/9}$, il y répond par la négative. Nous allons considérer le probléme dans le cas des groupes compacts finis, et plus particuliérement des groupes profinis $SL_k(\mathbb{Z}_p)$ et $Sp_{2k}(\mathbb{Z}_p)$. La premiére partie de cette thése est dédiée à l'obtention de bornes inférieures et supérieures exponentielles pour la mesure suprémale des ensembles sans produit. La preuve nécessite d'établir préalablement une borne inférieure sur la dimension des représentations non-triviales des groupes finis $SL_k(\mathbb{Z}/(p^n\mathbb{Z}))$ et $Sp_{2k}(\mathbb{Z}/(p^n\mathbb{Z}))$. Notre théoréme prolonge le travail de Landazuri et Seitz, qui considérent le degré minimal des représentations pour les groupes de Chevalley sur les corps finis, tout en offrant une preuve plus simple que la leur. La seconde partie de la thése à trait à la théorie algébrique des nombres. Un polynome monogéne $f$ est un polynome unitaire irréductible à coefficients entiers qui endengre un corps de nombres monogéne. Pour un nombre premier $q$ donné, nous allons montrer, en utilisant le théoréme de densité de Tchebotariov, que la densité des nombres premiers $p$ tels que $t^q -p$ soit monogéne est supérieure ou égale à $(q-1)/q$. Nous allons également démontrer que, quand $q=3$, la densité des nombres premiers $p$ tels que $\mathbb{Q}(\sqrt[3]{p})$ soit non monogéne est supérieure ou égale à $1/9$.
Resumo:
Dans cette thèse l’ancienne question philosophique “tout événement a-t-il une cause ?” sera examinée à la lumière de la mécanique quantique et de la théorie des probabilités. Aussi bien en physique qu’en philosophie des sciences la position orthodoxe maintient que le monde physique est indéterministe. Au niveau fondamental de la réalité physique – au niveau quantique – les événements se passeraient sans causes, mais par chance, par hasard ‘irréductible’. Le théorème physique le plus précis qui mène à cette conclusion est le théorème de Bell. Ici les prémisses de ce théorème seront réexaminées. Il sera rappelé que d’autres solutions au théorème que l’indéterminisme sont envisageables, dont certaines sont connues mais négligées, comme le ‘superdéterminisme’. Mais il sera argué que d’autres solutions compatibles avec le déterminisme existent, notamment en étudiant des systèmes physiques modèles. Une des conclusions générales de cette thèse est que l’interprétation du théorème de Bell et de la mécanique quantique dépend crucialement des prémisses philosophiques desquelles on part. Par exemple, au sein de la vision d’un Spinoza, le monde quantique peut bien être compris comme étant déterministe. Mais il est argué qu’aussi un déterminisme nettement moins radical que celui de Spinoza n’est pas éliminé par les expériences physiques. Si cela est vrai, le débat ‘déterminisme – indéterminisme’ n’est pas décidé au laboratoire : il reste philosophique et ouvert – contrairement à ce que l’on pense souvent. Dans la deuxième partie de cette thèse un modèle pour l’interprétation de la probabilité sera proposé. Une étude conceptuelle de la notion de probabilité indique que l’hypothèse du déterminisme aide à mieux comprendre ce que c’est qu’un ‘système probabiliste’. Il semble que le déterminisme peut répondre à certaines questions pour lesquelles l’indéterminisme n’a pas de réponses. Pour cette raison nous conclurons que la conjecture de Laplace – à savoir que la théorie des probabilités présuppose une réalité déterministe sous-jacente – garde toute sa légitimité. Dans cette thèse aussi bien les méthodes de la philosophie que de la physique seront utilisées. Il apparaît que les deux domaines sont ici solidement reliés, et qu’ils offrent un vaste potentiel de fertilisation croisée – donc bidirectionnelle.
Resumo:
Nous étudions différentes situations de distribution de la matière d’une bulle de masse négative. En effet, pour les bulles statiques et à symétrie sphérique, nous commençons par l’hypothèse qui dit que cette bulle, étant une solution des équations d’Einstein, est une déformation au niveau d’un champ scalaire. Nous montrons que cette idée est à rejeter et à remplacer par celle qui dit que la bulle est formée d’un fluide parfait. Nous réussissons à démontrer que ceci est la bonne distribution de matière dans une géométrie Schwarzschild-de Sitter, qu’elle satisfait toutes les conditions et que nous sommes capables de résoudre numériquement ses paramètres de pression et de densité.
Resumo:
Le contrôle psychologique parental est un facteur de risque réputé pour les problèmes intériorisés des enfants (p. ex., Affrunti & Ginsburg, 2011; McLeod, Wood & Weisz, 2007). Selon la Théorie de l'auto-détermination, le contrôle psychologique mène aux problèmes intériorisés (Ryan, Deci, Grolnick, & La Guardia, 2006) car il brime le besoin fondamental d'autonomie. En effet, recevoir de la pression afin de penser, se comporter et se sentir d’une certaine façon (Ryan, 1982) semble favoriser une régulation trop rigide et surcontrôlée (Ryan et al., 2006). Suite aux travaux de Soenens et Vansteenkiste (2010), la distinction conceptuelle entre deux formes de contrôle psychologique, soit manifestes (p. ex., les menaces, forcer physiquement) et dissimulées (p. ex., la surprotection, le marchandage), ont été utilisées pour évaluer le style parental (Étude 1) et les pratiques disciplinaires (Étude 2). Le contrôle psychologique parental et le soutien de l'autonomie (Étude 2) ont été mesurés durant la petite enfance puisque (1) les problèmes intériorisés émergent tôt, (2) le développement du sentiment d'autonomie est central au cours de cette période, et (3) attire probablement plus de contrôle psychologique parental. Avec ses deux articles, la présente thèse vise à clarifier la façon dont le contrôle psychologique manifeste et dissimulé est lié au développement précoce de problèmes intériorisés. L'étude 1 est une étude populationnelle examinant l'impact relatif du style parental sur des trajectoires développementales d'anxiété (N = 2 120 enfants; de 2,5 à 8 ans) avec de nombreux facteurs de risque potentiels provenant de l'enfant, de la mère et de la famille, tous mesurés au cours de la petite enfance. Les résultats ont montré qu'en plus de la timidité des enfants, de la dépression maternelle et du dysfonctionnement familial, le contrôle psychologique manifeste (c.-à-d., coercitif) et dissimulé (c.-à-d., la surprotection) augmentent le risque, pour les enfants, de suivre une trajectoire d'anxiété élevée. Une interaction entre la dépression maternelle et le contrôle dissimulé a été trouvée, ce qui indique que la surprotection augmente l'anxiété des enfants seulement lorsque la dépression maternelle est élevée. Enfin, le contrôle dissimulé prédit également l'anxiété telle que rapportée par les enseignants de deuxième année. Le deuxième article est une étude observationnelle qui examine comment l'autorégulation (AR) des bambins est liée au développement précoce des symptômes intériorisés, tout en explorant comment les pratiques disciplinaires parentales (contrôle et soutien de l'autonomie) y sont associées. Les pratiques parentales ont été codifiées lors d'une requête de rangement à 2 ans (contexte "Do", N = 102), tandis que l'AR des bambins a été codifiée à la fois durant la tâche de rangement ("Do") et durant une tâche d'interdiction (ne pas toucher à des jouets attrayants; contexte «Don't » ), à 2 ans puis à 3 ans. Les symptômes d'anxiété / dépression des enfants ont été évalués par leurs parents à 4,5 ans. Les résultats ont révélé que l'AR aux interdictions à 3 ans diminue la probabilité des enfants à manifester des taux élevés de symptômes d'anxiété / dépression. Les analyses ont aussi révélé que le parentage soutenant l'autonomie était lié à l'AR des enfants aux requêtes, un an plus tard. En revanche, le contrôle psychologique manifeste et dissimulé ont eu des effets délétères sur l'AR. Enfin, seul le contrôle dissimulé a augmenté les probabilités de présenter des niveaux plus élevés de problèmes intériorisés et ce, au-delà de l’effet protecteur de l'AR des bambins. Des résultats mitigés sont issus de cette thèse concernant les effets respectifs des deux formes de contrôle sur les problèmes intériorisés, dépendamment de l'informateur (mère c. enseignant) et de la méthodologie (questionnaires c. données observationnelles). Toutefois, le contrôle psychologique dissimulé était lié à ce problème affectif dans les deux études. Enfin, le soutien à l'autonomie s’est révélé être un facteur de protection potentiel et mériterait d'être étudié davantage.
Resumo:
Dans cette thèse, nous étudions quelques problèmes fondamentaux en mathématiques financières et actuarielles, ainsi que leurs applications. Cette thèse est constituée de trois contributions portant principalement sur la théorie de la mesure de risques, le problème de l’allocation du capital et la théorie des fluctuations. Dans le chapitre 2, nous construisons de nouvelles mesures de risque cohérentes et étudions l’allocation de capital dans le cadre de la théorie des risques collectifs. Pour ce faire, nous introduisons la famille des "mesures de risque entropique cumulatifs" (Cumulative Entropic Risk Measures). Le chapitre 3 étudie le problème du portefeuille optimal pour le Entropic Value at Risk dans le cas où les rendements sont modélisés par un processus de diffusion à sauts (Jump-Diffusion). Dans le chapitre 4, nous généralisons la notion de "statistiques naturelles de risque" (natural risk statistics) au cadre multivarié. Cette extension non-triviale produit des mesures de risque multivariées construites à partir des données financiéres et de données d’assurance. Le chapitre 5 introduit les concepts de "drawdown" et de la "vitesse d’épuisement" (speed of depletion) dans la théorie de la ruine. Nous étudions ces concepts pour des modeles de risque décrits par une famille de processus de Lévy spectrallement négatifs.
Resumo:
La présente thèse se base sur les principes de la théorisation ancrée (Strauss & Corbin, 1998) afin de répondre au manque de documentation concernant les stratégies adoptées par des « agents intermédiaires » pour promouvoir l’utilisation des connaissances issues de la recherche auprès des intervenants en éducation. Le terme « agent intermédiaire » réfère aux personnes qui sont positionnées à l’interface entre les producteurs et les utilisateurs des connaissances scientifiques et qui encouragent et soutiennent les intervenants scolaires dans l’application des connaissances scientifiques dans leur pratique. L’étude s’inscrit dans le cadre d’un projet du ministère de l’Éducation, du Loisir et du Sport du Québec visant à améliorer la réussite scolaire des élèves du secondaire provenant de milieux défavorisés. Des agents intermédiaires de différents niveaux du système éducatif ayant obtenu le mandat de transférer des connaissances issues de la recherche auprès des intervenants scolaires dans les écoles visées par le projet ont été sollicités pour participer à l’étude. Une stratégie d’échantillonnage de type « boule-de-neige » (Biernacki & Waldorf, 1981; Patton, 1990) a été employée afin d’identifier les personnes reconnues par leurs pairs pour la qualité du soutien offert aux intervenants scolaires quant à l’utilisation de la recherche dans leur pratique. Seize entrevues semi-structurées ont été réalisées. L’analyse des données permet de proposer un modèle d’intervention en transfert de connaissances composé de 32 stratégies d’influence, regroupées en 6 composantes d’intervention, soit : relationnelle, cognitive, politique, facilitatrice, évaluative, de même que de soutien et de suivi continu. Les résultats suggèrent que les stratégies d’ordre relationnelle, cognitive et politique sont interdépendantes et permettent d’établir un climat favorable dans lequel les agents peuvent exercer une plus grande influence sur l’appropriation du processus de l’utilisation des connaissances des intervenants scolaire. Ils montrent en outre que la composante de soutien et de suivi continu est importante pour maintenir les changements quant à l’utilisation de la recherche dans la pratique chez les intervenants scolaires. Les implications théoriques qui découlent du modèle, ainsi que les explications des mécanismes impliqués dans les différentes composantes, sont mises en perspective tant avec la documentation scientifique en transfert de connaissances dans les secteurs de la santé et de l’éducation, qu’avec les travaux provenant de disciplines connexes (notamment la psychologie). Enfin, des pistes d’action pour la pratique sont proposées.
Resumo:
La théorie de l'information quantique s'est développée à une vitesse fulgurante au cours des vingt dernières années, avec des analogues et extensions des théorèmes de codage de source et de codage sur canal bruité pour la communication unidirectionnelle. Pour la communication interactive, un analogue quantique de la complexité de la communication a été développé, pour lequel les protocoles quantiques peuvent performer exponentiellement mieux que les meilleurs protocoles classiques pour certaines tâches classiques. Cependant, l'information quantique est beaucoup plus sensible au bruit que l'information classique. Il est donc impératif d'utiliser les ressources quantiques à leur plein potentiel. Dans cette thèse, nous étudions les protocoles quantiques interactifs du point de vue de la théorie de l'information et étudions les analogues du codage de source et du codage sur canal bruité. Le cadre considéré est celui de la complexité de la communication: Alice et Bob veulent faire un calcul quantique biparti tout en minimisant la quantité de communication échangée, sans égard au coût des calculs locaux. Nos résultats sont séparés en trois chapitres distincts, qui sont organisés de sorte à ce que chacun puisse être lu indépendamment. Étant donné le rôle central qu'elle occupe dans le contexte de la compression interactive, un chapitre est dédié à l'étude de la tâche de la redistribution d'état quantique. Nous prouvons des bornes inférieures sur les coûts de communication nécessaires dans un contexte interactif. Nous prouvons également des bornes atteignables avec un seul message, dans un contexte d'usage unique. Dans un chapitre subséquent, nous définissons une nouvelle notion de complexité de l'information quantique. Celle-ci caractérise la quantité d'information, plutôt que de communication, qu'Alice et Bob doivent échanger pour calculer une tâche bipartie. Nous prouvons beaucoup de propriétés structurelles pour cette quantité, et nous lui donnons une interprétation opérationnelle en tant que complexité de la communication quantique amortie. Dans le cas particulier d'entrées classiques, nous donnons une autre caractérisation permettant de quantifier le coût encouru par un protocole quantique qui oublie de l'information classique. Deux applications sont présentées: le premier résultat général de somme directe pour la complexité de la communication quantique à plus d'une ronde, ainsi qu'une borne optimale, à un terme polylogarithmique près, pour la complexité de la communication quantique avec un nombre de rondes limité pour la fonction « ensembles disjoints ». Dans un chapitre final, nous initions l'étude de la capacité interactive quantique pour les canaux bruités. Étant donné que les techniques pour distribuer de l'intrication sont bien étudiées, nous nous concentrons sur un modèle avec intrication préalable parfaite et communication classique bruitée. Nous démontrons que dans le cadre plus ardu des erreurs adversarielles, nous pouvons tolérer un taux d'erreur maximal de une demie moins epsilon, avec epsilon plus grand que zéro arbitrairement petit, et ce avec un taux de communication positif. Il s'ensuit que les canaux avec bruit aléatoire ayant une capacité positive pour la transmission unidirectionnelle ont une capacité positive pour la communication interactive quantique. Nous concluons avec une discussion de nos résultats et des directions futures pour ce programme de recherche sur une théorie de l'information quantique interactive.
Resumo:
Cette thèse concerne le problème de trouver une notion naturelle de «courbure scalaire» en géométrie kählérienne généralisée. L'approche utilisée consiste à calculer l'application moment pour l'action du groupe des difféomorphismes hamiltoniens sur l'espace des structures kählériennes généralisées de type symplectique. En effet, il est bien connu que l'application moment pour la restriction de cette action aux structures kählériennes s'identifie à la courbure scalaire riemannienne. On se limite à une certaine classe de structure kählériennes généralisées sur les variétés toriques notée $DGK_{\omega}^{\mathbb{T}}(M)$ que l'on reconnaît comme étant classifiées par la donnée d'une matrice antisymétrique $C$ et d'une fonction réelle strictement convexe $\tau$ (ayant un comportement adéquat au voisinage de la frontière du polytope moment). Ce point de vue rend évident le fait que toute structure kählérienne torique peut être déformée en un élément non kählérien de $DGK_{\omega}^{\mathbb{T}}(M)$, et on note que cette déformation à lieu le long d'une des classes que R. Goto a démontré comme étant libre d'obstruction. On identifie des conditions suffisantes sur une paire $(\tau,C)$ pour qu'elle donne lieu à un élément de $DGK_{\omega}^{\mathbb{T}}(M)$ et on montre qu'en dimension 4, ces conditions sont également nécessaires. Suivant l'adage «l'application moment est la courbure» mentionné ci-haut, des formules pour des notions de «courbure scalaire hermitienne généralisée» et de «courbure scalaire riemannienne généralisée» (en dimension 4) sont obtenues en termes de la fonction $\tau$. Enfin, une expression de la courbure scalaire riemannienne généralisée en termes de la structure bihermitienne sous-jacente est dégagée en dimension 4. Lorsque comparée avec le résultat des physiciens Coimbra et al., notre formule suggère un choix canonique pour le dilaton de leur théorie.
Resumo:
En synthèse d’images, reproduire les effets complexes de la lumière sur des matériaux transluminescents, tels que la cire, le marbre ou la peau, contribue grandement au réalisme d’une image. Malheureusement, ce réalisme supplémentaire est couteux en temps de calcul. Les modèles basés sur la théorie de la diffusion visent à réduire ce coût en simulant le comportement physique du transport de la lumière sous surfacique tout en imposant des contraintes de variation sur la lumière incidente et sortante. Une composante importante de ces modèles est leur application à évaluer hiérarchiquement l’intégrale numérique de l’illumination sur la surface d’un objet. Cette thèse révise en premier lieu la littérature actuelle sur la simulation réaliste de la transluminescence, avant d’investiguer plus en profondeur leur application et les extensions des modèles de diffusion en synthèse d’images. Ainsi, nous proposons et évaluons une nouvelle technique d’intégration numérique hiérarchique utilisant une nouvelle analyse fréquentielle de la lumière sortante et incidente pour adapter efficacement le taux d’échantillonnage pendant l’intégration. Nous appliquons cette théorie à plusieurs modèles qui correspondent à l’état de l’art en diffusion, octroyant une amélioration possible à leur efficacité et précision.
Resumo:
Dans ce travail, nous étendons le nombre de conditions physiques actuellement con- nues du trou d’échange exact avec la dérivation de l’expansion de quatrième ordre du trou d’échange sphérique moyenne exacte. Nous comparons les expansions de deux- ième et de quatrième ordre avec le trou d’échange exact pour des systèmes atomiques et moléculaires. Nous avons constaté que, en général, l’expansion du quatrième ordre reproduit plus fidèlement le trou d’échange exact pour les petites valeurs de la distance interélectronique. Nous démontrons que les ensembles de base de type gaussiennes ont une influence significative sur les termes de cette nouvelle condition, en étudiant com- ment les oscillations causées par ces ensembles de bases affectent son premier terme. Aussi, nous proposons quatre modèles de trous d’échange analytiques auxquels nous imposons toutes les conditions actuellement connues du trou d’échange exact et la nou- velle présentée dans ce travail. Nous évaluons la performance des modèles en calculant des énergies d’échange et ses contributions à des énergies d’atomisation. On constate que les oscillations causeés par les bases de type gaussiennes peuvent compromettre la précision et la solution des modèles.
Resumo:
Full Text / Article complet
Resumo:
La synthèse d'images dites photoréalistes nécessite d'évaluer numériquement la manière dont la lumière et la matière interagissent physiquement, ce qui, malgré la puissance de calcul impressionnante dont nous bénéficions aujourd'hui et qui ne cesse d'augmenter, est encore bien loin de devenir une tâche triviale pour nos ordinateurs. Ceci est dû en majeure partie à la manière dont nous représentons les objets: afin de reproduire les interactions subtiles qui mènent à la perception du détail, il est nécessaire de modéliser des quantités phénoménales de géométries. Au moment du rendu, cette complexité conduit inexorablement à de lourdes requêtes d'entrées-sorties, qui, couplées à des évaluations d'opérateurs de filtrage complexes, rendent les temps de calcul nécessaires à produire des images sans défaut totalement déraisonnables. Afin de pallier ces limitations sous les contraintes actuelles, il est nécessaire de dériver une représentation multiéchelle de la matière. Dans cette thèse, nous construisons une telle représentation pour la matière dont l'interface correspond à une surface perturbée, une configuration qui se construit généralement via des cartes d'élévations en infographie. Nous dérivons notre représentation dans le contexte de la théorie des microfacettes (conçue à l'origine pour modéliser la réflectance de surfaces rugueuses), que nous présentons d'abord, puis augmentons en deux temps. Dans un premier temps, nous rendons la théorie applicable à travers plusieurs échelles d'observation en la généralisant aux statistiques de microfacettes décentrées. Dans l'autre, nous dérivons une procédure d'inversion capable de reconstruire les statistiques de microfacettes à partir de réponses de réflexion d'un matériau arbitraire dans les configurations de rétroréflexion. Nous montrons comment cette théorie augmentée peut être exploitée afin de dériver un opérateur général et efficace de rééchantillonnage approximatif de cartes d'élévations qui (a) préserve l'anisotropie du transport de la lumière pour n'importe quelle résolution, (b) peut être appliqué en amont du rendu et stocké dans des MIP maps afin de diminuer drastiquement le nombre de requêtes d'entrées-sorties, et (c) simplifie de manière considérable les opérations de filtrage par pixel, le tout conduisant à des temps de rendu plus courts. Afin de valider et démontrer l'efficacité de notre opérateur, nous synthétisons des images photoréalistes anticrenelées et les comparons à des images de référence. De plus, nous fournissons une implantation C++ complète tout au long de la dissertation afin de faciliter la reproduction des résultats obtenus. Nous concluons avec une discussion portant sur les limitations de notre approche, ainsi que sur les verrous restant à lever afin de dériver une représentation multiéchelle de la matière encore plus générale.
Resumo:
The aim of this paper is to examine a particular substantive theory among others in the set of “revisionist” theories of moral responsibility, namely, Manuel Vargas’ version of the moral influence account of the justification of responsibility- specific practices. Moderate revisionism, which Vargas (2005) endorses, advocates a clear distinction between descriptive and normative questions, which enables a naturalistically plausible account of responsibility that does not jeopardize the normative aspect. However, while Vargas provides a useful framework for thinking about revisionism, I argue that despite its initial appeal, an actual revisionist theory does not seem to track as closely as we would like what I call the “meta-theory” of revisionism, viz. what Vargas defines as the features of moderate revisionism. Outlining these differences enables the formulation of observations about 1) the role of revisionist approaches for theorizing about moral responsibility and 2) how revisionism can be integrated with scientifically informed approaches.