999 resultados para secular theory


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Centrée sur une réflexion des droits de l’homme à partir de l’expérience historique de la Shoah, la thèse porte sur l’enjeu fondamental du statut du religieux en modernité. Trois parties la composent, correspondant au génocide, à la modernité politique et à l’histoire du Salut : la première propose une interprétation de l’Holocauste en ayant recours aux catégories empruntées à l’historiographie, à la réflexion philosophique et à la tradition théologique. Elle rend compte de deux lectures concurrentes des Lumières, du renversement de la théologie chrétienne du judaïsme au XXe siècle, de la généalogie idéologique du nazisme ainsi que du contexte explosif de l’entre-deux-guerres. La seconde partie de la thèse avance une théorie des trois modernités, selon laquelle les États-Unis, la France et Vatican II représenteraient des interprétations divergentes et rivales des droits. Enfin, la troisième partie reprend les deux précédentes thématiques de la Shoah et de la modernité, mais à la lumière de la Révélation, notamment de l’Incarnation et de la Croix. La Révélation est présentée comme un double dévoilement simultané de l’identité de Dieu et de la dignité humaine – comme un jeu de miroir où la définition de l’homme est indissociable de celle de la divinité. En provoquant l’effondrement de la Chrétienté, la sécularisation aurait créé un vide existentiel dans lequel se serait engouffré le nazisme comme religion politique et idéologie néo-païenne de substitution. Négation de l'élection d'Israël, du Décalogue et de l’anthropologie biblique, l’entreprise nazie d’anéantissement est comprise comme la volonté d’éradication de la Transcendance et du patrimoine spirituel judéo-chrétien, la liquidation du Dieu juif par l’élimination du peuple juif. Le judéocide pourrait dès lors être qualifié de «moment dans l’histoire du Salut» en ce sens qu’il serait porteur d’un message moral en lien avec le contenu de la Révélation qui interpellerait avec force et urgence la conscience moderne. L’Holocauste constituerait ainsi un kairos, une occasion à saisir pour une critique lucide des apories de la modernité issue des Lumières et pour un renouvellement de la pensée théologico-politique, une invitation à une refondation transcendante des droits fondamentaux, dont la liberté religieuse ferait figure de matrice fondationnelle. La Shoah apporterait alors une réponse au rôle que la Transcendance pourrait jouer dans les sociétés modernes. Mémorial de Sang refondateur des droits de la personne, l'Holocauste rendrait témoignage, il lancerait une mise en garde et poserait les conditions nécessaires d'un enracinement biblique à la préservation de la dignité de l’être humain. Aux Six Millions de Défigurés correspondrait la Création de l'Homme du Sixième Jour. En conclusion, un triangle synergique nourricier est soutenu par l’extermination hitlérienne (1941-1945), la Déclaration universelle des droits de l’homme (1948) et le Concile Vatican II (1962-1965) comme les trois piliers d’une nouvelle modernité, située au-delà des paradigmes américain (1776) et français (1789). La Shoah inaugurerait et poserait ainsi les fondements d'un nouvel horizon civilisationnel; elle pointerait vers un nouveau départ possible pour le projet de la modernité. L'expérience génocidaire n'invaliderait pas la modernité, elle ne la discréditerait pas, mais la relancerait sur des bases spirituelles nouvelles. Cette refondation des droits fondamentaux offrirait alors une voie de sortie et de conciliation à la crise historique qui opposait depuis près de deux siècles en Europe les droits de l'homme et la Transcendance, Dieu et la liberté – modèle susceptible d’inspirer des civilisations non occidentales en quête d’une modernité respectueuse de leur altérité culturelle et compatible avec la foi religieuse.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cette thèse s’articule autour de trois chapitres indépendants qui s’inscrivent dans les champs de la macroéconomie, de l’économie monétaire et de la finance internationale. Dans le premier chapitre, je construis un modèle néo-keynesien d’équilibre général sous incertitude pour examiner les implications de la production domestique des ménages pour la politique monétaire. Le modèle proposé permet de reconcilier deux faits empiriques majeurs: la forte sensibilité du produit intérieur brut aux chocs monétaires (obtenue à partir des modèles VAR), et le faible degré de rigidité nominale observé dans les micro-données. Le deuxième chapitre étudie le role de la transformation structurelle (réallocation de la main d’oeuvre entre secteurs) sur la volatilité de la production aggregée dans un panel de pays. Le troisième chapitre quant à lui met en exergue l’importance de la cartographie des échanges commerciaux pour le choix entre un régime de change fixe et l’arrimage à un panier de devises. "Household Production, Services and Monetary Policy" (Chapitre 1) part de l’observation selon laquelle les ménages peuvent produire à domicile des substituts aux services marchands, contrairement aux biens non durables qu’ils acquièrent presque exclusivement sur le marché. Dans ce contexte, ils procèdent à d’importants arbitrages entre produire les services à domicile ou les acquerir sur le marché, dépendamment des changements dans leur revenu. Pour examiner les implications de tels arbitrages (qui s’avèrent être importants dans les micro-données) le secteur domestique est introduit dans un modèle néo-keyenesien d’équilibre général sous incertitude à deux secteurs (le secteur des biens non durables et le secteur des services) autrement standard. Je montre que les firmes du secteur des services sont moins enclin à changer leurs prix du fait que les ménages ont l’option de produire soit même des services substituts. Ceci se traduit par la présence d’un terme endogène supplémentaire qui déplace la courbe de Phillips dans ce secteur. Ce terme croit avec le degré de substituabilité qui existe entre les services produits à domicile et ceux acquis sur le marché. Cet accroissement de la rigidité nominale amplifie la sensibilité de la production réelle aux chocs monétaires, notamment dans le secteur des services, ce qui est compatible avec l’évidence VAR selon laquelle les services de consommation sont plus sensibles aux variations de taux d’intérêt que les biens non durables. "Structural Transformation and the Volatility of Aggregate Output: A Cross-country Analysis" (Chapitre 2) est basée sur l’évidence empirique d’une relation négative entre la part de la main d’oeuvre allouée au secteur des services et la volatilité de la production aggrégée, même lorsque je contrôle pour les facteurs tels que le développement du secteur financier. Ce resultat aggregé est la conséquence des développements sectoriels: la productivité de la main d’oeuvre est beaucoup plus volatile dans l’agriculture et les industries manufacturières que dans les services. La production aggregée deviendrait donc mécaniquement moins volatile au fur et à mesure que la main d’oeuvre se déplace de l’agriculture et de la manufacture vers les services. Pour évaluer cette hypothèse, je calibre un modèle de transformation structurelle à l’économie américaine, que j’utilise ensuite pour générer l’allocation sectorielle de la main d’oeuvre dans l’agriculture, l’industrie et les services pour les autres pays de l’OCDE. Dans une analyse contre-factuelle, le modèle est utlisé pour restreindre la mobilité de la main d’oeuvre entre secteurs de façon endogène. Les calculs montrent alors que le déplacement de la main d’oeuvre vers le secteur des services réduit en effet la volatilité de la production aggregée. "Exchange Rate Volatility under Alternative Peg Regimes: Do Trade Patterns Matter?" (Chapitre 3) est une contribution à la litterature économique qui s’interesse au choix entre divers regimes de change. J’utilise les données mensuelles de taux de change bilatéraux et de commerce extérieur entre 1980 et 2010 pour les pays membre de l’Union Economique et Monétaire Ouest Africaine (UEMOA). La monnaie de ces pays (le franc CFA) est arrimée au franc Francais depuis le milieu des années 40 et à l’euro depuis son introduction en 1999. Au moment de l’arrimage initial, la France était le principal partenaire commercial des pays de l’UEMOA. Depuis lors, et plus encore au cours des dix dernières années, la cartographie des échanges de l’union a significativement changé en faveur des pays du groupe des BICs, notamment la Chine. Je montre dans ce chapitre que l’arrimage à un panier de devises aurait induit une volatilité moins pronnoncée du taux de change effectif nominal du franc CFA au cours de la décennie écoulée, comparé à la parité fixe actuelle. Ce chapitre, cependant, n’aborde pas la question de taux de change optimal pour les pays de l’UEMOA, un aspect qui serait intéressant pour une recherche future.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La logique contemporaine a connu de nombreux développements au cours de la seconde moitié du siècle dernier. Le plus sensationnel est celui de la logique modale et de sa sémantique des mondes possibles (SMP) dû à Saul Kripke dans les années soixante. Ces dans ce cadre que David Lewis exposera sa sémantique des contrefactuels (SCF). Celle-ci constitue une véritable excroissance de l’architecture kripkéenne. Mais sur quoi finalement repose l’architecture kripkéenne elle-même ? Il semble bien que la réponse soit celle d’une ontologie raffinée ultimement basée sur la notion de mondes possible. Ce mémoire comporte quatre objectifs. Dans un premier temps, nous allons étudier ce qui distingue les contrefactuels des autres conditionnels et faire un survol historique de la littérature concernant les contrefactuels et leur application dans différent champs du savoir comme la philosophie des sciences et l’informatique. Dans un deuxième temps, nous ferons un exposé systématique de la théorie de Lewis telle qu’elle est exposée dans son ouvrage Counterfactuals. Finalement, nous allons explorer la fondation métaphysique des mondes possible de David Lewis dans son conception de Réalisme Modal.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’approche des capabilités a été caractérisée par un développement fulgurant au cours des vingt-cinq dernières années. Bien que formulée à l’origine par Amartya Sen, détenteur du Prix Nobel en économie, Martha Nussbaum reprit cette approche dans le but de s’en servir comme fondation pour une théorie éthico-politique intégrale du bien. Cependant, la version de Nussbaum s’avéra particulièrement vulnérable à plusieurs critiques importantes, mettant sérieusement en doute son efficacité globale. À la lumière de ces faits, cette thèse vise à évaluer la pertinence théorique et pratique de l’approche des capabilités de Nussbaum, en examinant trois groupes de critiques particulièrement percutantes formulées à son encontre.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Gowers, dans son article sur les matrices quasi-aléatoires, étudie la question, posée par Babai et Sos, de l'existence d'une constante $c>0$ telle que tout groupe fini possède un sous-ensemble sans produit de taille supérieure ou égale a $c|G|$. En prouvant que, pour tout nombre premier $p$ assez grand, le groupe $PSL_2(\mathbb{F}_p)$ (d'ordre noté $n$) ne posséde aucun sous-ensemble sans produit de taille $c n^{8/9}$, il y répond par la négative. Nous allons considérer le probléme dans le cas des groupes compacts finis, et plus particuliérement des groupes profinis $SL_k(\mathbb{Z}_p)$ et $Sp_{2k}(\mathbb{Z}_p)$. La premiére partie de cette thése est dédiée à l'obtention de bornes inférieures et supérieures exponentielles pour la mesure suprémale des ensembles sans produit. La preuve nécessite d'établir préalablement une borne inférieure sur la dimension des représentations non-triviales des groupes finis $SL_k(\mathbb{Z}/(p^n\mathbb{Z}))$ et $Sp_{2k}(\mathbb{Z}/(p^n\mathbb{Z}))$. Notre théoréme prolonge le travail de Landazuri et Seitz, qui considérent le degré minimal des représentations pour les groupes de Chevalley sur les corps finis, tout en offrant une preuve plus simple que la leur. La seconde partie de la thése à trait à la théorie algébrique des nombres. Un polynome monogéne $f$ est un polynome unitaire irréductible à coefficients entiers qui endengre un corps de nombres monogéne. Pour un nombre premier $q$ donné, nous allons montrer, en utilisant le théoréme de densité de Tchebotariov, que la densité des nombres premiers $p$ tels que $t^q -p$ soit monogéne est supérieure ou égale à $(q-1)/q$. Nous allons également démontrer que, quand $q=3$, la densité des nombres premiers $p$ tels que $\mathbb{Q}(\sqrt[3]{p})$ soit non monogéne est supérieure ou égale à $1/9$.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La légitimité des écoles privées fondées sur un projet religieux ou spirituel fait l’objet de débats épineux tant au Québec qu’ailleurs, depuis plusieurs années (chapitre 1). À la différence des nombreux travaux normatifs déjà produits sur ces questions, cette thèse propose une contribution empirique sur la réalité de certaines de ces écoles à Montréal. Notre objectif général consiste donc à comprendre comment la dimension religieuse ou spirituelle d'écoles privées de groupes ou courants minoritaires (juives, musulmanes, Steiner) se traduit dans les discours et pratiques de l'école. La mise en lien d’écoles abritant des projets éducatifs minoritaires de différentes natures vise par ailleurs à poser un regard plus large sur l’identité, ethnique ou religieuse. Après avoir analysé les trois écoles, nous examinons les différences ou convergences significatives entre elles. Puis, nous tentons de mieux comprendre comment leurs discours et leurs pratiques nous renseignent sur les attentes parallèles relatives à l’éducation en contexte libéral. Nous portons alors attention (chapitre 2) aux interactions entre le curriculum « séculier » et une perspective religieuse ou spirituelle, à la conception de l'autonomie dans la scolarisation, à la formation du citoyen et à la hiérarchisation des valeurs éducatives. En nous inspirant entre autres de Juteau (1999), nous considérons ces écoles comme des « communautés » éducatives. Notre démarche méthodologique (chapitre 3), d’inspiration ethnographique, s’articule autour d'observations participantes en 5e et en 6e année du primaire et en 1re et 2e année du secondaire (environ 3 jours par classe) et à plus de 45 entrevues, menées auprès des enseignants, des directions d’école et des parents d’élèves. Même si notre dispositif ne consiste pas à faire « émerger » une théorie, nous nous inspirons de la méthode de la « théorisation ancrée » pour analyser nos données. Le premier chapitre d’analyse (chapitre 4) illustre d’abord un cas relativement « pur » de communalisation, puisque l’école Steiner produit du spirituel sans forcément se situer dans un rapport de force avec d’autres groupes sociaux. Cela reflète donc comment une lignée identitaire peut être construite grâce à l’enracinement dans une tradition et une mémoire « créées» par l’école. L’école musulmane (chapitre 5) adapte plutôt les références associées à la religion de manière à constituer un « pont » entre la socialisation primaire et celle de la société d’accueil. On constate en effet que la direction et les enseignants de l’école ne réinventent pas la lignée croyante, mais ne la reproduisent pas non plus à l’identique. En ce qui concerne l’école juive (chapitre 6), elle permet surtout d’attester une communauté ethnoreligieuse extérieure. La tradition juive enseignée à l’école, souvent qualifiée de « traditionalisme non religieux » par les acteurs scolaires, présente donc peu de réinterprétations ou de transformations dans ce contexte scolaire. Un dernier chapitre d’analyse (chapitre 7), abordant les trois écoles dans une perspective comparative, met notamment en perspective comment ces trois institutions transmettent une culture identitaire et un style de vie débordant le cadre scolaire, qui englobent les croyances religieuses et/ou spirituelles, mais ne s’y réduisent pas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dans cette thèse l’ancienne question philosophique “tout événement a-t-il une cause ?” sera examinée à la lumière de la mécanique quantique et de la théorie des probabilités. Aussi bien en physique qu’en philosophie des sciences la position orthodoxe maintient que le monde physique est indéterministe. Au niveau fondamental de la réalité physique – au niveau quantique – les événements se passeraient sans causes, mais par chance, par hasard ‘irréductible’. Le théorème physique le plus précis qui mène à cette conclusion est le théorème de Bell. Ici les prémisses de ce théorème seront réexaminées. Il sera rappelé que d’autres solutions au théorème que l’indéterminisme sont envisageables, dont certaines sont connues mais négligées, comme le ‘superdéterminisme’. Mais il sera argué que d’autres solutions compatibles avec le déterminisme existent, notamment en étudiant des systèmes physiques modèles. Une des conclusions générales de cette thèse est que l’interprétation du théorème de Bell et de la mécanique quantique dépend crucialement des prémisses philosophiques desquelles on part. Par exemple, au sein de la vision d’un Spinoza, le monde quantique peut bien être compris comme étant déterministe. Mais il est argué qu’aussi un déterminisme nettement moins radical que celui de Spinoza n’est pas éliminé par les expériences physiques. Si cela est vrai, le débat ‘déterminisme – indéterminisme’ n’est pas décidé au laboratoire : il reste philosophique et ouvert – contrairement à ce que l’on pense souvent. Dans la deuxième partie de cette thèse un modèle pour l’interprétation de la probabilité sera proposé. Une étude conceptuelle de la notion de probabilité indique que l’hypothèse du déterminisme aide à mieux comprendre ce que c’est qu’un ‘système probabiliste’. Il semble que le déterminisme peut répondre à certaines questions pour lesquelles l’indéterminisme n’a pas de réponses. Pour cette raison nous conclurons que la conjecture de Laplace – à savoir que la théorie des probabilités présuppose une réalité déterministe sous-jacente – garde toute sa légitimité. Dans cette thèse aussi bien les méthodes de la philosophie que de la physique seront utilisées. Il apparaît que les deux domaines sont ici solidement reliés, et qu’ils offrent un vaste potentiel de fertilisation croisée – donc bidirectionnelle.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le contrôle psychologique parental est un facteur de risque réputé pour les problèmes intériorisés des enfants (p. ex., Affrunti & Ginsburg, 2011; McLeod, Wood & Weisz, 2007). Selon la Théorie de l'auto-détermination, le contrôle psychologique mène aux problèmes intériorisés (Ryan, Deci, Grolnick, & La Guardia, 2006) car il brime le besoin fondamental d'autonomie. En effet, recevoir de la pression afin de penser, se comporter et se sentir d’une certaine façon (Ryan, 1982) semble favoriser une régulation trop rigide et surcontrôlée (Ryan et al., 2006). Suite aux travaux de Soenens et Vansteenkiste (2010), la distinction conceptuelle entre deux formes de contrôle psychologique, soit manifestes (p. ex., les menaces, forcer physiquement) et dissimulées (p. ex., la surprotection, le marchandage), ont été utilisées pour évaluer le style parental (Étude 1) et les pratiques disciplinaires (Étude 2). Le contrôle psychologique parental et le soutien de l'autonomie (Étude 2) ont été mesurés durant la petite enfance puisque (1) les problèmes intériorisés émergent tôt, (2) le développement du sentiment d'autonomie est central au cours de cette période, et (3) attire probablement plus de contrôle psychologique parental. Avec ses deux articles, la présente thèse vise à clarifier la façon dont le contrôle psychologique manifeste et dissimulé est lié au développement précoce de problèmes intériorisés. L'étude 1 est une étude populationnelle examinant l'impact relatif du style parental sur des trajectoires développementales d'anxiété (N = 2 120 enfants; de 2,5 à 8 ans) avec de nombreux facteurs de risque potentiels provenant de l'enfant, de la mère et de la famille, tous mesurés au cours de la petite enfance. Les résultats ont montré qu'en plus de la timidité des enfants, de la dépression maternelle et du dysfonctionnement familial, le contrôle psychologique manifeste (c.-à-d., coercitif) et dissimulé (c.-à-d., la surprotection) augmentent le risque, pour les enfants, de suivre une trajectoire d'anxiété élevée. Une interaction entre la dépression maternelle et le contrôle dissimulé a été trouvée, ce qui indique que la surprotection augmente l'anxiété des enfants seulement lorsque la dépression maternelle est élevée. Enfin, le contrôle dissimulé prédit également l'anxiété telle que rapportée par les enseignants de deuxième année. Le deuxième article est une étude observationnelle qui examine comment l'autorégulation (AR) des bambins est liée au développement précoce des symptômes intériorisés, tout en explorant comment les pratiques disciplinaires parentales (contrôle et soutien de l'autonomie) y sont associées. Les pratiques parentales ont été codifiées lors d'une requête de rangement à 2 ans (contexte "Do", N = 102), tandis que l'AR des bambins a été codifiée à la fois durant la tâche de rangement ("Do") et durant une tâche d'interdiction (ne pas toucher à des jouets attrayants; contexte «Don't » ), à 2 ans puis à 3 ans. Les symptômes d'anxiété / dépression des enfants ont été évalués par leurs parents à 4,5 ans. Les résultats ont révélé que l'AR aux interdictions à 3 ans diminue la probabilité des enfants à manifester des taux élevés de symptômes d'anxiété / dépression. Les analyses ont aussi révélé que le parentage soutenant l'autonomie était lié à l'AR des enfants aux requêtes, un an plus tard. En revanche, le contrôle psychologique manifeste et dissimulé ont eu des effets délétères sur l'AR. Enfin, seul le contrôle dissimulé a augmenté les probabilités de présenter des niveaux plus élevés de problèmes intériorisés et ce, au-delà de l’effet protecteur de l'AR des bambins. Des résultats mitigés sont issus de cette thèse concernant les effets respectifs des deux formes de contrôle sur les problèmes intériorisés, dépendamment de l'informateur (mère c. enseignant) et de la méthodologie (questionnaires c. données observationnelles). Toutefois, le contrôle psychologique dissimulé était lié à ce problème affectif dans les deux études. Enfin, le soutien à l'autonomie s’est révélé être un facteur de protection potentiel et mériterait d'être étudié davantage.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dans cette thèse, nous étudions quelques problèmes fondamentaux en mathématiques financières et actuarielles, ainsi que leurs applications. Cette thèse est constituée de trois contributions portant principalement sur la théorie de la mesure de risques, le problème de l’allocation du capital et la théorie des fluctuations. Dans le chapitre 2, nous construisons de nouvelles mesures de risque cohérentes et étudions l’allocation de capital dans le cadre de la théorie des risques collectifs. Pour ce faire, nous introduisons la famille des "mesures de risque entropique cumulatifs" (Cumulative Entropic Risk Measures). Le chapitre 3 étudie le problème du portefeuille optimal pour le Entropic Value at Risk dans le cas où les rendements sont modélisés par un processus de diffusion à sauts (Jump-Diffusion). Dans le chapitre 4, nous généralisons la notion de "statistiques naturelles de risque" (natural risk statistics) au cadre multivarié. Cette extension non-triviale produit des mesures de risque multivariées construites à partir des données financiéres et de données d’assurance. Le chapitre 5 introduit les concepts de "drawdown" et de la "vitesse d’épuisement" (speed of depletion) dans la théorie de la ruine. Nous étudions ces concepts pour des modeles de risque décrits par une famille de processus de Lévy spectrallement négatifs.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La présente thèse se base sur les principes de la théorisation ancrée (Strauss & Corbin, 1998) afin de répondre au manque de documentation concernant les stratégies adoptées par des « agents intermédiaires » pour promouvoir l’utilisation des connaissances issues de la recherche auprès des intervenants en éducation. Le terme « agent intermédiaire » réfère aux personnes qui sont positionnées à l’interface entre les producteurs et les utilisateurs des connaissances scientifiques et qui encouragent et soutiennent les intervenants scolaires dans l’application des connaissances scientifiques dans leur pratique. L’étude s’inscrit dans le cadre d’un projet du ministère de l’Éducation, du Loisir et du Sport du Québec visant à améliorer la réussite scolaire des élèves du secondaire provenant de milieux défavorisés. Des agents intermédiaires de différents niveaux du système éducatif ayant obtenu le mandat de transférer des connaissances issues de la recherche auprès des intervenants scolaires dans les écoles visées par le projet ont été sollicités pour participer à l’étude. Une stratégie d’échantillonnage de type « boule-de-neige » (Biernacki & Waldorf, 1981; Patton, 1990) a été employée afin d’identifier les personnes reconnues par leurs pairs pour la qualité du soutien offert aux intervenants scolaires quant à l’utilisation de la recherche dans leur pratique. Seize entrevues semi-structurées ont été réalisées. L’analyse des données permet de proposer un modèle d’intervention en transfert de connaissances composé de 32 stratégies d’influence, regroupées en 6 composantes d’intervention, soit : relationnelle, cognitive, politique, facilitatrice, évaluative, de même que de soutien et de suivi continu. Les résultats suggèrent que les stratégies d’ordre relationnelle, cognitive et politique sont interdépendantes et permettent d’établir un climat favorable dans lequel les agents peuvent exercer une plus grande influence sur l’appropriation du processus de l’utilisation des connaissances des intervenants scolaire. Ils montrent en outre que la composante de soutien et de suivi continu est importante pour maintenir les changements quant à l’utilisation de la recherche dans la pratique chez les intervenants scolaires. Les implications théoriques qui découlent du modèle, ainsi que les explications des mécanismes impliqués dans les différentes composantes, sont mises en perspective tant avec la documentation scientifique en transfert de connaissances dans les secteurs de la santé et de l’éducation, qu’avec les travaux provenant de disciplines connexes (notamment la psychologie). Enfin, des pistes d’action pour la pratique sont proposées.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La théorie de l'information quantique s'est développée à une vitesse fulgurante au cours des vingt dernières années, avec des analogues et extensions des théorèmes de codage de source et de codage sur canal bruité pour la communication unidirectionnelle. Pour la communication interactive, un analogue quantique de la complexité de la communication a été développé, pour lequel les protocoles quantiques peuvent performer exponentiellement mieux que les meilleurs protocoles classiques pour certaines tâches classiques. Cependant, l'information quantique est beaucoup plus sensible au bruit que l'information classique. Il est donc impératif d'utiliser les ressources quantiques à leur plein potentiel. Dans cette thèse, nous étudions les protocoles quantiques interactifs du point de vue de la théorie de l'information et étudions les analogues du codage de source et du codage sur canal bruité. Le cadre considéré est celui de la complexité de la communication: Alice et Bob veulent faire un calcul quantique biparti tout en minimisant la quantité de communication échangée, sans égard au coût des calculs locaux. Nos résultats sont séparés en trois chapitres distincts, qui sont organisés de sorte à ce que chacun puisse être lu indépendamment. Étant donné le rôle central qu'elle occupe dans le contexte de la compression interactive, un chapitre est dédié à l'étude de la tâche de la redistribution d'état quantique. Nous prouvons des bornes inférieures sur les coûts de communication nécessaires dans un contexte interactif. Nous prouvons également des bornes atteignables avec un seul message, dans un contexte d'usage unique. Dans un chapitre subséquent, nous définissons une nouvelle notion de complexité de l'information quantique. Celle-ci caractérise la quantité d'information, plutôt que de communication, qu'Alice et Bob doivent échanger pour calculer une tâche bipartie. Nous prouvons beaucoup de propriétés structurelles pour cette quantité, et nous lui donnons une interprétation opérationnelle en tant que complexité de la communication quantique amortie. Dans le cas particulier d'entrées classiques, nous donnons une autre caractérisation permettant de quantifier le coût encouru par un protocole quantique qui oublie de l'information classique. Deux applications sont présentées: le premier résultat général de somme directe pour la complexité de la communication quantique à plus d'une ronde, ainsi qu'une borne optimale, à un terme polylogarithmique près, pour la complexité de la communication quantique avec un nombre de rondes limité pour la fonction « ensembles disjoints ». Dans un chapitre final, nous initions l'étude de la capacité interactive quantique pour les canaux bruités. Étant donné que les techniques pour distribuer de l'intrication sont bien étudiées, nous nous concentrons sur un modèle avec intrication préalable parfaite et communication classique bruitée. Nous démontrons que dans le cadre plus ardu des erreurs adversarielles, nous pouvons tolérer un taux d'erreur maximal de une demie moins epsilon, avec epsilon plus grand que zéro arbitrairement petit, et ce avec un taux de communication positif. Il s'ensuit que les canaux avec bruit aléatoire ayant une capacité positive pour la transmission unidirectionnelle ont une capacité positive pour la communication interactive quantique. Nous concluons avec une discussion de nos résultats et des directions futures pour ce programme de recherche sur une théorie de l'information quantique interactive.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En synthèse d’images, reproduire les effets complexes de la lumière sur des matériaux transluminescents, tels que la cire, le marbre ou la peau, contribue grandement au réalisme d’une image. Malheureusement, ce réalisme supplémentaire est couteux en temps de calcul. Les modèles basés sur la théorie de la diffusion visent à réduire ce coût en simulant le comportement physique du transport de la lumière sous surfacique tout en imposant des contraintes de variation sur la lumière incidente et sortante. Une composante importante de ces modèles est leur application à évaluer hiérarchiquement l’intégrale numérique de l’illumination sur la surface d’un objet. Cette thèse révise en premier lieu la littérature actuelle sur la simulation réaliste de la transluminescence, avant d’investiguer plus en profondeur leur application et les extensions des modèles de diffusion en synthèse d’images. Ainsi, nous proposons et évaluons une nouvelle technique d’intégration numérique hiérarchique utilisant une nouvelle analyse fréquentielle de la lumière sortante et incidente pour adapter efficacement le taux d’échantillonnage pendant l’intégration. Nous appliquons cette théorie à plusieurs modèles qui correspondent à l’état de l’art en diffusion, octroyant une amélioration possible à leur efficacité et précision.