12 resultados para POLARIZED-LIGHT

em Université de Montréal, Canada


Relevância:

60.00% 60.00%

Publicador:

Resumo:

La structure du cartilage articulaire adulte est caractérisée par la présence de couches créées par l’orientation des fibres de collagène (Benninghoff, 1925). Avant de présenter la structure adulte classique en arcades “de Benninghoff”, le cartilage subit une série de changements au cours de sa maturation (Julkunen et al., 2010; Lecocq et al., 2008). Toutefois, un faible nombre d’études s’est intéressé à la structure du collagène du cartilage articulaire in utero. Notre objectif était d’étudier la maturation de la surface articulaire de l’épiphyse fémorale distale chez le cheval, en employant à la fois l’imagerie par résonance magnétique (IRM) et la microscopie en lumière polarisée après coloration au rouge picrosirius, au niveau de sites utilisés dans les études de réparation tissulaire et de sites prédisposés à l’ostéochondrose (OC). Le but était de décrire le développement normal du réseau de collagène et la relation entre les images IRM et la structure histologique. Des sections provenant de cinq sites de l’épiphyse fémorale distale de 14 fœtus et 10 poulains et adultes ont été colorées au rouge picrosirius, après que le grasset ait été imagé par IRM, dans l’optique de visualiser l’agencement des fibres de collagène de type II. Les deux modalités utilisées, IRM et microscopie en lumière polarisée, ont démontré la mise en place progressive d’une structure en couches du réseau de collagène, avant la naissance et la mise en charge de l’articulation.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

La chimie supramoléculaire est basée sur l'assemblage non covalent de blocs simples, des petites molécules aux polymères, pour synthétiser des matériaux fonctionnels ou complexes. La poly(4-vinylpyridine) (P4VP) est l'une des composantes supramoléculaires les plus utilisées en raison de sa chaîne latérale composée d’une pyridine pouvant interagir avec de nombreuses espèces, telles que les petites molécules monofonctionnelles et bifonctionnelles, grâce à divers types d'interactions. Dans cette thèse, des assemblages supramoléculaires de P4VP interagissant par liaisons hydrogène avec de petites molécules sont étudiés, en ayant comme objectifs de faciliter l'électrofilage de polymères et de mieux comprendre et d'optimiser la photoréponse des matériaux contenant des dérivés d'azobenzène. Une nouvelle approche est proposée afin d'élargir l'applicabilité de l'électrofilage, une technique courante pour produire des nanofibres. À cet effet, un complexe entre la P4VP et un agent de réticulation bifonctionnel capable de former deux liaisons hydrogène, le 4,4'-biphénol (BiOH), a été préparé pour faciliter le processus d’électrofilage des solutions de P4VP. Pour mieux comprendre ce complexe, une nouvelle méthode de spectroscopie infrarouge (IR) a d'abord été développée pour quantifier l'étendue de la complexation. Elle permet de déterminer un paramètre clé, le rapport du coefficient d'absorption d'une paire de bandes attribuées aux groupements pyridines libres et liées par liaisons hydrogène, en utilisant la 4-éthylpyridine comme composé modèle à l’état liquide. Cette méthode a été appliquée à de nombreux complexes de P4VP impliquant des liaisons hydrogène et devrait être généralement applicable à d'autres complexes polymères. La microscopie électronique à balayage (SEM) a révélé l'effet significatif du BiOH sur la facilité du processus d’électrofilage de P4VP de masses molaires élevées et faibles. La concentration minimale pour former des fibres présentant des perles diminue dans le N, N'-diméthylformamide (DMF) et diminue encore plus lorsque le nitrométhane, un mauvais solvant pour la P4VP et un non-solvant pour le BiOH, est ajouté pour diminuer l'effet de rupture des liaisons hydrogène causé par le DMF. Les liaisons hydrogène dans les solutions et les fibres de P4VP-BiOH ont été quantifiées par spectroscopie IR et les résultats de rhéologie ont démontré la capacité de points de réticulation effectifs, analogues aux enchevêtrements physiques, à augmenter la viscoélasticité de solutions de P4VP pour mieux résister à la formation de gouttelettes. Cette réticulation effective fonctionne en raison d'interactions entre le BiOH bifonctionnel et deux chaînes de P4VP, et entre les groupements hydroxyles du BiOH complexé de manière monofonctionnelle. Des études sur d’autres agents de réticulation de faible masse molaire ont montré que la plus forte réticulation effective est introduite par des groupes d’acide carboxylique et des ions de zinc (II) qui facilitent le processus d’électrofilage par rapport aux groupements hydroxyles du BiOH. De plus, la sublimation est efficace pour éliminer le BiOH contenu dans les fibres sans affecter leur morphologie, fournissant ainsi une méthode élégante pour préparer des fibres de polymères purs dont le processus d’électrofilage est habituellement difficile. Deux complexes entre la P4VP et des azobenzènes photoactifs portant le même groupement tête hydroxyle et différents groupes queue, soit cyano (ACN) ou hydrogène (AH), ont été étudiés par spectroscopie infrarouge d’absorbance structurale par modulation de la polarisation (PM-IRSAS) pour évaluer l'impact des groupements queue sur leur performance lors de l'irradiation avec de la lumière polarisée linéairement. Nous avons constaté que ACN mène à la photo-orientation des chaînes latérales de la P4VP et des azobenzènes, tandis que AH mène seulement à une orientation plus faible des chromophores. La photo-orientation des azobenzènes diminue pour les complexes avec une teneur croissante en chromophore, mais l'orientation de la P4VP augmente. D'autre part, l'orientation résiduelle après la relaxation thermique augmente avec la teneur en ACN, à la fois pour le ACN et la P4VP, mais la tendance opposée est constatée pour AH. Ces différences suggèrent que le moment dipolaire a un impact sur la diffusion rotationnelle des chromophores. Ces résultats contribueront à orienter la conception de matériaux polymères contenant des azobenzène efficaces.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Polarisé par l’événement du jubilé de l’an 2000, Jean-Paul II, tout au long de son pontificat, achemine l’Église catholique dans un long pèlerinage vers le IIIe millénaire de l’humanité. À l’aube du XXIe siècle, avec le contenu théologique du concile Vatican II pour boussole fiable, le pape polonais arbore une vision pastorale originale marquée par l’expression « nouvelle évangélisation ». Reprise de l’épiscopat d’Amérique latine, cette expression devient ainsi son emblème et son fer de lance durant les quelque 27 années de son pontificat. Largement récupérée par maints milieux ecclésiaux, l’expression méritait qu’on en produise une étude systématique à la lumière de la théologie pastorale de celui qui en a été le divulgateur privilégié. Pour ce faire, nous avons choisi comme texte fondateur à notre étude sa lettre apostolique Tertio Millennio Adveniente publiée en 1994, en raison de la vision pastorale qui s’en dégage à l’aube de l’an 2000. Ce texte, qui couvre la période du concile Vatican II jusqu’à l’entrée de l’Église catholique dans le IIIe millénaire, définit le cadre temporel de notre recherche. Par ailleurs, il nous permet de retenir trois référents théologiques pour conduire notre étude. Nous les analysons et nous en conduisons une synthèse théologique à travers trois regards synoptiques qui acheminent progressivement la thèse vers sa conclusion. Le premier référent théologique retenu est l’exhortation apostolique Evangelii Nuntiandi du pape Paul VI ; le deuxième référent est l’ouvrage de Karol Wojtyla Aux sources du renouveau ; le troisième référent est l’exhortation postsynodale Ecclesia in America. Avec une démarche herméneutique justifiée, et par la synthèse de ces référents théologiques, trois aboutissants voient le jour. Le premier regarde l’application pastorale du concile Vatican II : dans un regard pastoral justifié par une anthropologie définie, le pasteur articule les constitutions Lumen Gentium et Gaudium et Spes pour proposer une praxis pastorale. Le second aboutissant parle alors de la notion de la créativité de la foi. Cette créativité de la foi se décline, elle, dans les médiations culturelles – troisième aboutissant – qui s’articulent elles-mêmes autour des concepts d’attitudes et de dialogue wojtylien. La critique proposée en conclusion de thèse porte directement sur l’anthropologie proposée par Jean-Paul II sous-jacente à chacun de ces trois aboutissants.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’objectif de cette thèse est d’élucider l’intention, la pertinence et la cohérence de l’appropriation par Heidegger des concepts principaux de la philosophie pratique aristotélicienne dans ses premiers cours. Notre analyse portera principalement sur les notions clefs d’energeia et de phronēsis. La première section de la thèse est préparatoire : elle est consacrée à une analyse étroite des textes pertinents de l’Éthique à Nicomaque, mais aussi de la Métaphysique, en discussion avec d’autres commentateurs modernes. Cette analyse jette les fondations philologiques nécessaires en vue d’aborder les audacieuses interprétations de Heidegger sur une base plus ferme. La deuxième et principale section consiste en une discussion de l’appropriation ontologique de l’Éthique à Nicomaque que Heidegger entreprend de 1922 à 1924, à partir des textes publiés jusqu’à ce jour et en portant une attention spéciale à Métaphysique IX. Le résultat principal de la première section est un aperçu du caractère central de l’energeia pour le projet d’Aristote dans l’Éthique à Nicomaque et, plus spécifiquement, pour sa compréhension de la praxis, qui dans son sens original s’avère être un mode d’être des êtres humains. Notre analyse reconnaît trois traits essentiels de l’energeia et de la praxis, deux desquels provenant de l’élucidation aristotélicienne de l’energeia dans Métaphysique IX 6, à savoir son immédiateté et sa continuité : energeia exprime l’être comme un « accomplissement immédiat mais inachevé ». L’irréductibilité, troisième trait de l’energeia et de la praxis, résulte pour sa part de l’application de la structure de l’energeia à la caractérisation de la praxis dans l’Éthique à Nicomaque, et du contraste de la praxis avec la poiēsis et la theōria. Ces trois caractéristiques impliquent que la vérité pratique ― la vérité de la praxis, ce qui est l’ « objet » de la phronēsis ― ne peut être à proprement parler possédée et ainsi transmise : plus qu’un savoir, elle se révèle surtout comme quelque chose que nous sommes. C’est ce caractère unique de la vérité pratique qui a attiré Heidegger vers Aristote au début des années 1920. La deuxième section, consacrée aux textes de Heidegger, commence par la reconstruction de quelques-uns des pas qui l’ont conduit jusqu’à Aristote pour le développement de son propre projet philosophique, pour sa part caractérisé par une profonde, bien qu’énigmatique combinaison d’ontologie et de phénoménologie. La légitimité et la faisabilité de l’appropriation clairement ontologique de l’Éthique à Nicomaque par Heidegger est aussi traitée, sur la base des résultats de la première section. L’analyse de ces textes met en lumière la pénétrante opposition établie par Heidegger entre la phronēsis et l’energeia dans son programmatique Natorp Bericht en 1922, une perspective qui diverge fortement des résultats de notre lecture philologique d’Aristote dans la première section. Cette opposition est maintenue dans nos deux sources principales ― le cours du semestre d’hiver 1924-25 Platon: Sophistes, et le cours du semestre d’été 1924 Grundbegriffe der aristotelischen Philosophie. Le commentaire que Heidegger fait du texte d’Aristote est suivi de près dans cette section: des concepts tels que energeia, entelecheia, telos, physis ou hexis ― qui trouvent leur caractérisation ontologique dans la Métaphysique ou la Physique ― doivent être examinés afin de suivre l’argument de Heidegger et d’en évaluer la solidité. L’hypothèse de Heidegger depuis 1922 ― à savoir que l’ontologie aristotélicienne n’est pas à la hauteur des aperçus de ses plus pénétrantes descriptions phénoménologiques ― résulte en un conflit opposant phronēsis et sophia qui divise l’être en deux sphères irréconciliables qui auraient pour effet selon Heidegger de plonger les efforts ontologiques aristotéliciens dans une impasse. Or, cette conclusion de Heidegger est construite à partir d’une interprétation particulière de l’energeia qui laisse de côté d’une manière décisive son aspect performatif, pourtant l’un des traits essentiels de l’energeia telle qu’Aristote l’a conçue. Le fait que dans les années 1930 Heidegger ait lui-même retrouvé cet aspect de l’energeia nous fournit des raisons plus fortes de mettre en doute le supposé conflit entre ontologie et phénoménologie chez Aristote, ce qui peut aboutir à une nouvelle formulation du projet heideggérien.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neuf maladies neurodégénératives sont le produit de l’expression de gènes mutés, dans lesquels le codon CAG est répété au-delà d’un seuil pathologique. Ceci produit des protéines mutantes dans lesquelles sont insérés des segments de polyglutamines (polyGln), qui perdent leur activité et acquièrent une nouvelle fonction, ce qui est toxique pour le neurone. Ces altérations sont attribuables aux propriétés particulières de la polyGln. En effet, ces dernières possèdent la capacité de s’assembler pour former des corps d’inclusion intracellulaires. Cette propension à l’agrégation de la polyGln rend difficile l’étude de ces pathologies. C’est ainsi que l’utilisation de peptides peut s’avérer une approche avantageuse. Toutefois, la synthèse de polyGln est associée à de nombreuses délétions et nécessite l’ajout de groupements chargés afin de permettre leur purification. Cependant, ce prérequis donne lieu à des interactions électrostatiques qui biaisent la structure et la cinétique d’agrégation de ces peptides, en plus d’interférer avec l’évaluation d’éventuels agents thérapeutiques. L’objectif du projet est de développer un système permettant l’étude de la polyGln en s’affranchissant des effets de charges. Pour ce faire, deux approches ont été explorées, la première utilise la polyGln non chargée et la seconde utilise une structure polyGln-morpholine ayant des charges labiles en fonction du pH. Ces peptides ont été produits en utilisant une approche linéaire de synthèse peptidique sur support solide avec protection maximale des chaînes latérales. La purification a été effectuée par chromatographie de haute performance en phase inverse en milieu acide. Ces stratégies ont permis de produire des peptides de polyGln de grande pureté avec des rendements acceptables. Une procédure de solubilisation des peptides alliant sonication et lyophilisation a été développée afin d’étudier chacun de ces peptides à l’aide de diverses techniques physicochimiques, telles que la diffusion de la lumière, la spectroscopie de résonance magnétique nucléaire, Raman et UV-visible, le dichroïsme circulaire et la microscopie optique polarisée. La polyGln non chargée solubilisée dans le trifluoroéthanol-eau a montré que la taille des particules et la vitesse d’agrégation sont proportionnelles à la fraction volumique en eau. De plus, la structure secondaire en solution est à prédominance alpha et semble être peu sensible à la fraction d’eau jusqu’à un certain seuil (25%) après lequel la structure aléatoire prédomine. L’analyse des agrégats à l’état solide montre des structures hélicoïdales > aléatoires et ont les caractéristiques des fibrilles amyloïdes. Le peptide de polyGln-morpholines a un pKa de 7,3 en milieu aqueux. Il demeure en solution lorsque le pH < pKa et à faible force ionique, alors qu’il s’autoassemble lorsque ces conditions ne sont pas respectées. Ceci suggère que la répulsion électrostatique est responsable de la stabilisation du peptide en solution. La dimension fractale nous indique que le peptide forme des agrégats compacts dont les constituants ont une taille de 2,5 nm, compatibles avec une conformation aléatoire compacte, en coude bêta ou hélicoïdale. Ceci est en accord avec l’étude structurale des peptides en solution qui a montré des espèces aléatoires > bêta > alpha. De plus, en RMN, l’élargissement des signaux du 1Hγ en cours d’agrégation suggère une interaction via les chaînes latérales. Les analyses en phase solide ont plutôt montré une prédominance de structures bêta et alpha. L’inhibition de l’agrégation à pH 8 varie selon rouge de Congo > tréhalose, alors que le peptide liant la polyGln 1 et la thioflavine T ne semble pas avoir d’effet. Ces approches ont donc permis pour la première fois de s’affranchir des effets de charges auparavant inhérents à l’étude de la polyGln en solution et par conséquent d’obtenir des informations inédites quant à la solubilité, la structure et la cinétique d’agrégation. Enfin, le dispositif à charges labiles permet d’évaluer l’efficacité d’éventuels agents thérapeutiques à pH quasi physiologique.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cette thèse s'intéresse à des aspects du tournage, de la projection et de la perception du cinéma stéréo panoramique, appelé aussi cinéma omnistéréo. Elle s'inscrit en grande partie dans le domaine de la vision par ordinateur, mais elle touche aussi aux domaines de l'infographie et de la perception visuelle humaine. Le cinéma omnistéréo projette sur des écrans immersifs des vidéos qui fournissent de l'information sur la profondeur de la scène tout autour des spectateurs. Ce type de cinéma comporte des défis liés notamment au tournage de vidéos omnistéréo de scènes dynamiques, à la projection polarisée sur écrans très réfléchissants rendant difficile l'estimation de leur forme par reconstruction active, aux distorsions introduites par l'omnistéréo pouvant fausser la perception des profondeurs de la scène. Notre thèse a tenté de relever ces défis en apportant trois contributions majeures. Premièrement, nous avons développé la toute première méthode de création de vidéos omnistéréo par assemblage d'images pour des mouvements stochastiques et localisés. Nous avons mis au point une expérience psychophysique qui montre l'efficacité de la méthode pour des scènes sans structure isolée, comme des courants d'eau. Nous proposons aussi une méthode de tournage qui ajoute à ces vidéos des mouvements moins contraints, comme ceux d'acteurs. Deuxièmement, nous avons introduit de nouveaux motifs lumineux qui permettent à une caméra et un projecteur de retrouver la forme d'objets susceptibles de produire des interréflexions. Ces motifs sont assez généraux pour reconstruire non seulement les écrans omnistéréo, mais aussi des objets très complexes qui comportent des discontinuités de profondeur du point de vue de la caméra. Troisièmement, nous avons montré que les distorsions omnistéréo sont négligeables pour un spectateur placé au centre d'un écran cylindrique, puisqu'elles se situent à la périphérie du champ visuel où l'acuité devient moins précise.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The article discusses the present status of weblogs and examines whether legal standards applicable to traditional press and media should be applied to that specific forum. The analysis is based on two key documents: the Draft Report on the concentration and pluralism in the media in European Union (2007/2253(INI)) of the European Parliament Committee on Culture and Education presented in March 2008 and a landmark decision of the Polish Supreme Court from July 26, 2007 (IV KK 174/07) in the light of present judicial tendency in other European countries. The first of the mentioned documents calls for the “clarification of the legal status of different categories of weblog authors and publishers as well as disclosure of interests and voluntary labelling of weblogs”. It emphasizes that the “undetermined and unindicated status of authors and publishers of weblogs causes uncertainties regarding impartiality, reliability, source protection, applicability of ethical codes and the assignment of liability in the event of lawsuits”. The position of the European Parliament, expressed in the document, raises serious questions on the limits of freedom of thought and speech on the Internet and on the degree of acceptable state control. A recent Polish Supreme Court decision, which caused quite a stir in the Polish Internet community, seems to head in the very direction recommended by the EP Culture Committee. In a case of two editors of a web journal (“czasopismo internetowe”) called “Szyciepoprzemysku”, available on-line, accused of publishing a journal without the proper registration, the Polish Supreme Court stated that “journals and periodicals do not lose the character of a press release due solely to the fact that they appear in the form of an  Internet transmission”, and that ‘’the publishing of press in an electronic form, available on the Internet, requires  registration”. The decision was most surprising, as prior lower courts decisions declined the possibility to register Internet periodicals. The accused were acquitted in the name of the constitutional principle of the rule of law (art. 7 of the Polish Constitution) and the ensuing obligation to protect the trust of a citizen to the state (a conviction in this case would break the collateral estoppel rule), however the decision quickly awoke media frenzy and raised the fear of a need to register all websites that were regularly updated. The spokesman of the Polish Supreme Court later explained that the sentence of the Court was not intended to cause a mass registration of all Internet “periodicals” and that neither weblogs nor Internet sites, that were regularly updated, needed registration. Such an interpretation of the Polish press law did not appear clear based only on the original text of the judgment and the decision as such still raises serious practical questions. The article aims to examine the status of Internet logs as press and seeks the compromise between the concerns expressed by European authorities and the freedom of thought and speech exercised on the Internet.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dans cette thèse l’ancienne question philosophique “tout événement a-t-il une cause ?” sera examinée à la lumière de la mécanique quantique et de la théorie des probabilités. Aussi bien en physique qu’en philosophie des sciences la position orthodoxe maintient que le monde physique est indéterministe. Au niveau fondamental de la réalité physique – au niveau quantique – les événements se passeraient sans causes, mais par chance, par hasard ‘irréductible’. Le théorème physique le plus précis qui mène à cette conclusion est le théorème de Bell. Ici les prémisses de ce théorème seront réexaminées. Il sera rappelé que d’autres solutions au théorème que l’indéterminisme sont envisageables, dont certaines sont connues mais négligées, comme le ‘superdéterminisme’. Mais il sera argué que d’autres solutions compatibles avec le déterminisme existent, notamment en étudiant des systèmes physiques modèles. Une des conclusions générales de cette thèse est que l’interprétation du théorème de Bell et de la mécanique quantique dépend crucialement des prémisses philosophiques desquelles on part. Par exemple, au sein de la vision d’un Spinoza, le monde quantique peut bien être compris comme étant déterministe. Mais il est argué qu’aussi un déterminisme nettement moins radical que celui de Spinoza n’est pas éliminé par les expériences physiques. Si cela est vrai, le débat ‘déterminisme – indéterminisme’ n’est pas décidé au laboratoire : il reste philosophique et ouvert – contrairement à ce que l’on pense souvent. Dans la deuxième partie de cette thèse un modèle pour l’interprétation de la probabilité sera proposé. Une étude conceptuelle de la notion de probabilité indique que l’hypothèse du déterminisme aide à mieux comprendre ce que c’est qu’un ‘système probabiliste’. Il semble que le déterminisme peut répondre à certaines questions pour lesquelles l’indéterminisme n’a pas de réponses. Pour cette raison nous conclurons que la conjecture de Laplace – à savoir que la théorie des probabilités présuppose une réalité déterministe sous-jacente – garde toute sa légitimité. Dans cette thèse aussi bien les méthodes de la philosophie que de la physique seront utilisées. Il apparaît que les deux domaines sont ici solidement reliés, et qu’ils offrent un vaste potentiel de fertilisation croisée – donc bidirectionnelle.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le présent mémoire décrit le développement d’une méthode de synthèse des hélicènes catalysée par la lumière visible. Les conditions pour la formation de [5]hélicène ont été établies par une optimisation du photocatalyseur, du solvant, du système d’oxydation et du temps réactionnel. Suite aux études mécanistiques préliminaires, un mécanisme oxydatif est proposé. Les conditions optimisées ont été appliquées à la synthèse de [6]hélicènes pour laquelle la régiosélectivité a été améliorée en ajoutant des substituants sur la colonne hélicale. La synthèse de thiohélicènes a aussi été testée en utilisant les mêmes conditions sous irradiation par la lumière visible. La méthode a été inefficace pour la formation de benzodithiophènes et de naphtothiophènes, par contre elle permet la formation du phenanthro[3,4-b]thiophène avec un rendement acceptable. En prolongeant la surface-π de la colonne hélicale, le pyrène a été fusionné aux motifs de [4]- et [5]hélicène. Trois dérivés de pyrène-hélicène ont été synthétisés en utilisant les conditions optimisées pour la photocyclisation et leurs caractéristiques physiques ont été étudiées. La méthode de cyclisation sous l’action de la lumière visible a aussi été étudiée en flux continu. Une optimisation du montage expérimental ainsi que de la source lumineuse a été effectuée et les meilleures conditions ont été appliquées à la formation de [5]hélicène et des trois dérivés du pyrène-hélicène. Une amélioration ou conservation des rendements a été observée pour la plupart des produits formés en flux continu comparativement à la synthèse en batch. La concentration de la réaction a aussi été conservée et le temps réactionnel a été réduit par un facteur de dix toujours en comparaison avec la synthèse en batch.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En synthèse d’images, reproduire les effets complexes de la lumière sur des matériaux transluminescents, tels que la cire, le marbre ou la peau, contribue grandement au réalisme d’une image. Malheureusement, ce réalisme supplémentaire est couteux en temps de calcul. Les modèles basés sur la théorie de la diffusion visent à réduire ce coût en simulant le comportement physique du transport de la lumière sous surfacique tout en imposant des contraintes de variation sur la lumière incidente et sortante. Une composante importante de ces modèles est leur application à évaluer hiérarchiquement l’intégrale numérique de l’illumination sur la surface d’un objet. Cette thèse révise en premier lieu la littérature actuelle sur la simulation réaliste de la transluminescence, avant d’investiguer plus en profondeur leur application et les extensions des modèles de diffusion en synthèse d’images. Ainsi, nous proposons et évaluons une nouvelle technique d’intégration numérique hiérarchique utilisant une nouvelle analyse fréquentielle de la lumière sortante et incidente pour adapter efficacement le taux d’échantillonnage pendant l’intégration. Nous appliquons cette théorie à plusieurs modèles qui correspondent à l’état de l’art en diffusion, octroyant une amélioration possible à leur efficacité et précision.