921 resultados para Calcul quantique expérimental
Resumo:
Ce mémoire s'intéresse à la reconstruction d'un modèle 3D à partir de plusieurs images. Le modèle 3D est élaboré avec une représentation hiérarchique de voxels sous la forme d'un octree. Un cube englobant le modèle 3D est calculé à partir de la position des caméras. Ce cube contient les voxels et il définit la position de caméras virtuelles. Le modèle 3D est initialisé par une enveloppe convexe basée sur la couleur uniforme du fond des images. Cette enveloppe permet de creuser la périphérie du modèle 3D. Ensuite un coût pondéré est calculé pour évaluer la qualité de chaque voxel à faire partie de la surface de l'objet. Ce coût tient compte de la similarité des pixels provenant de chaque image associée à la caméra virtuelle. Finalement et pour chacune des caméras virtuelles, une surface est calculée basée sur le coût en utilisant la méthode de SGM. La méthode SGM tient compte du voisinage lors du calcul de profondeur et ce mémoire présente une variation de la méthode pour tenir compte des voxels précédemment exclus du modèle par l'étape d'initialisation ou de creusage par une autre surface. Par la suite, les surfaces calculées sont utilisées pour creuser et finaliser le modèle 3D. Ce mémoire présente une combinaison innovante d'étapes permettant de créer un modèle 3D basé sur un ensemble d'images existant ou encore sur une suite d'images capturées en série pouvant mener à la création d'un modèle 3D en temps réel.
Resumo:
Cette thèse a été réalisée, entre autres, grâce à une subvention reçue du Fonds de recherche du Québec – Société et culture et de son partenaire le ministère de l’Éducation, du Loisir et du Sport (MELS) Les analyses contenues dans cette thèse ont été réalisées au Centre interuniversitaire québécois de statistiques sociales (CIQSS), membre du Réseau canadien des centres de données de recherche (RCCDR). Les activités du CIQSS sont rendues possibles grâce à l’appui financier du CRSHC, des IRSC, de la FCI, de Statistique Canada, du FRQSC ainsi que de l’ensemble des universités québécoises qui participent à leur financement. Les idées exprimées dans ce texte sont celles des auteurs et non celles des partenaires financiers.
Resumo:
Le cancer du sein est le cancer le plus fréquent chez la femme. Il demeure la cause de mortalité la plus importante chez les femmes âgées entre 35 et 55 ans. Au Canada, plus de 20 000 nouveaux cas sont diagnostiqués chaque année. Les études scientifiques démontrent que l'espérance de vie est étroitement liée à la précocité du diagnostic. Les moyens de diagnostic actuels comme la mammographie, l'échographie et la biopsie comportent certaines limitations. Par exemple, la mammographie permet de diagnostiquer la présence d’une masse suspecte dans le sein, mais ne peut en déterminer la nature (bénigne ou maligne). Les techniques d’imagerie complémentaires comme l'échographie ou l'imagerie par résonance magnétique (IRM) sont alors utilisées en complément, mais elles sont limitées quant à la sensibilité et la spécificité de leur diagnostic, principalement chez les jeunes femmes (< 50 ans) ou celles ayant un parenchyme dense. Par conséquent, nombreuses sont celles qui doivent subir une biopsie alors que leur lésions sont bénignes. Quelques voies de recherche sont privilégiées depuis peu pour réduire l`incertitude du diagnostic par imagerie ultrasonore. Dans ce contexte, l’élastographie dynamique est prometteuse. Cette technique est inspirée du geste médical de palpation et est basée sur la détermination de la rigidité des tissus, sachant que les lésions en général sont plus rigides que le tissu sain environnant. Le principe de cette technique est de générer des ondes de cisaillement et d'en étudier la propagation de ces ondes afin de remonter aux propriétés mécaniques du milieu via un problème inverse préétabli. Cette thèse vise le développement d'une nouvelle méthode d'élastographie dynamique pour le dépistage précoce des lésions mammaires. L'un des principaux problèmes des techniques d'élastographie dynamiques en utilisant la force de radiation est la forte atténuation des ondes de cisaillement. Après quelques longueurs d'onde de propagation, les amplitudes de déplacement diminuent considérablement et leur suivi devient difficile voir impossible. Ce problème affecte grandement la caractérisation des tissus biologiques. En outre, ces techniques ne donnent que l'information sur l'élasticité tandis que des études récentes montrent que certaines lésions bénignes ont les mêmes élasticités que des lésions malignes ce qui affecte la spécificité de ces techniques et motive la quantification de d'autres paramètres mécaniques (e.g.la viscosité). Le premier objectif de cette thèse consiste à optimiser la pression de radiation acoustique afin de rehausser l'amplitude des déplacements générés. Pour ce faire, un modèle analytique de prédiction de la fréquence de génération de la force de radiation a été développé. Une fois validé in vitro, ce modèle a servi pour la prédiction des fréquences optimales pour la génération de la force de radiation dans d'autres expérimentations in vitro et ex vivo sur des échantillons de tissu mammaire obtenus après mastectomie totale. Dans la continuité de ces travaux, un prototype de sonde ultrasonore conçu pour la génération d'un type spécifique d'ondes de cisaillement appelé ''onde de torsion'' a été développé. Le but est d'utiliser la force de radiation optimisée afin de générer des ondes de cisaillement adaptatives, et de monter leur utilité dans l'amélioration de l'amplitude des déplacements. Contrairement aux techniques élastographiques classiques, ce prototype permet la génération des ondes de cisaillement selon des parcours adaptatifs (e.g. circulaire, elliptique,…etc.) dépendamment de la forme de la lésion. L’optimisation des dépôts énergétiques induit une meilleure réponse mécanique du tissu et améliore le rapport signal sur bruit pour une meilleure quantification des paramètres viscoélastiques. Il est aussi question de consolider davantage les travaux de recherches antérieurs par un appui expérimental, et de prouver que ce type particulier d'onde de torsion peut mettre en résonance des structures. Ce phénomène de résonance des structures permet de rehausser davantage le contraste de déplacement entre les masses suspectes et le milieu environnant pour une meilleure détection. Enfin, dans le cadre de la quantification des paramètres viscoélastiques des tissus, la dernière étape consiste à développer un modèle inverse basé sur la propagation des ondes de cisaillement adaptatives pour l'estimation des paramètres viscoélastiques. L'estimation des paramètres viscoélastiques se fait via la résolution d'un problème inverse intégré dans un modèle numérique éléments finis. La robustesse de ce modèle a été étudiée afin de déterminer ces limites d'utilisation. Les résultats obtenus par ce modèle sont comparés à d'autres résultats (mêmes échantillons) obtenus par des méthodes de référence (e.g. Rheospectris) afin d'estimer la précision de la méthode développée. La quantification des paramètres mécaniques des lésions permet d'améliorer la sensibilité et la spécificité du diagnostic. La caractérisation tissulaire permet aussi une meilleure identification du type de lésion (malin ou bénin) ainsi que son évolution. Cette technique aide grandement les cliniciens dans le choix et la planification d'une prise en charge adaptée.
Resumo:
Cette thèse est divisée en trois chapitres. Le premier explique comment utiliser la méthode «level-set» de manière rigoureuse pour faire la simulation de feux de forêt en utilisant comme modèle physique pour la propagation le modèle de l'ellipse de Richards. Le second présente un nouveau schéma semi-implicite avec une preuve de convergence pour la solution d'une équation de type Hamilton-Jacobi anisotrope. L'avantage principal de cette méthode est qu'elle permet de réutiliser des solutions à des problèmes «proches» pour accélérer le calcul. Une autre application de ce schéma est l'homogénéisation. Le troisième chapitre montre comment utiliser les méthodes numériques des deux premiers chapitres pour étudier l'influence de variations à petites échelles dans la vitesse du vent sur la propagation d'un feu de forêt à l'aide de la théorie de l'homogénéisation.
Resumo:
En synthèse d’images, reproduire les effets complexes de la lumière sur des matériaux transluminescents, tels que la cire, le marbre ou la peau, contribue grandement au réalisme d’une image. Malheureusement, ce réalisme supplémentaire est couteux en temps de calcul. Les modèles basés sur la théorie de la diffusion visent à réduire ce coût en simulant le comportement physique du transport de la lumière sous surfacique tout en imposant des contraintes de variation sur la lumière incidente et sortante. Une composante importante de ces modèles est leur application à évaluer hiérarchiquement l’intégrale numérique de l’illumination sur la surface d’un objet. Cette thèse révise en premier lieu la littérature actuelle sur la simulation réaliste de la transluminescence, avant d’investiguer plus en profondeur leur application et les extensions des modèles de diffusion en synthèse d’images. Ainsi, nous proposons et évaluons une nouvelle technique d’intégration numérique hiérarchique utilisant une nouvelle analyse fréquentielle de la lumière sortante et incidente pour adapter efficacement le taux d’échantillonnage pendant l’intégration. Nous appliquons cette théorie à plusieurs modèles qui correspondent à l’état de l’art en diffusion, octroyant une amélioration possible à leur efficacité et précision.
Resumo:
Au Liban, le diabète est évalué à 12%, il est appelé à doubler d’ici l’an 2025. Devant cette augmentation, il est pertinent d’évaluer les effets d’une intervention éducative auprès de personnes présentant un DT2 sur leur sentiment d’auto-efficacité et leur capacité d’auto-soins afin de rendre leur adhésion thérapeutique la plus optimale possible. Le devis est expérimental avant/après 3 mois. L’adhésion a été évaluée à l’aide de l’HbA1c à <7 % et de du SDSCA pour les comportements d’auto-soins, du DMSES pour l’auto-efficacité. L’échantillon formé : 71 GE et 65 GC. Le GE s’est amélioré au niveau des comportements d’auto-soins, l’application des recommandations, du sentiment d’auto-efficacité et du taux d’HbA1c. Ainsi une éducation infirmière favorise l’adhésion chez les DT2. Cette étude a pu contribuer au développement du savoir infirmier et au renouvellement des pratiques cliniques.
Resumo:
Le stress chronique en milieu de travail est lié à une variété d’effets négatifs tant physiologiques que psychologiques tels l’anxiété, la dépression et l’épuisement professionnel (Taylor et al., 1997). Les professionnels de la santé et les travailleurs sociaux étant les plus touchés (Felton, 1998), les intervenants des centres de réadaptation de jeunes tels le Centre-Jeunesse de Montréal-Institut Universitaire (CJM-IU) sont donc une population particulièrement vulnérable. L’objectif principal de la présente étude était de tester auprès de 70 intervenants du CJM-IU l’effet d’un programme web de gestion de stress chronique auto-administré sur le stress psychologique et physiologique puisque nous le savons, le stress implique la sécrétion d’hormones et l’activation du système nerveux. Nous avions pour hypothèse que cet effet si présent, aura un impact subséquent sur la dépression, l’anxiété et l’épuisement professionnel. Le programme testé, Stress et Compagnie, développé par le Centre d’Études sur le Stress Humain de l’Institut Universitaire en Santé Mentale de Montréal est basé sur des récentes découvertes en psychoneuroendocrinologie. L’évaluation a été faite par un devis expérimental avec groupe expérimental et témoin avec un pré-test et deux post-test dont un directement après le programme et un autre un mois plus tard. Les résultats sans être significatifs tendent à suggérer que le programme permet de réduire le stress chronique psychologique chez un sous groupe d’intervenants, notamment ceux n’ayant pas été exposés à un évènement potentiellement traumatisant lors de la dernière année. Les effets sur le stress physiologique sont plus instables.
Resumo:
Chez les animaux de laboratoire, même si les anesthésiques par inhalation sont généralement plus sécuritaires que les injectables, leur utilité est souvent restreinte lorsqu’un protocole expérimental exige une autre approche. Des combinaisons d’anesthésiques contenant de la kétamine sont considérées comme l’option de choix pour les anesthésies injectables chez les rats. Le vieillissement entraîne des changements dégénératifs au niveau de la structure et la fonction des organes, modifiant souvent à la pharmacocinétique des drogues. Ce projet porte sur l’évaluation des changements pharmacodynamiques (physiologiques, biochimiques et histologiques) et pharmacocinétiques, lors d’une combinaison anesthésique de kétamine-‐xylazine chez le rat Sprague-‐Dawley vieillissant. Une anesthésie à la kétamine-‐xylazine fut induite chez des rats Sprague-‐Dawley de différents âges. Afin d’évaluer l’effet du vieillissement sur le métabolisme des deux drogues, des prélèvements sanguins périodiques pour l’analyse de la pharmacocinétique ainsi que des mesures des paramètres physiologiques, biochimiques et une histopathologie furent effectués. Le vieillissement a causé certaines modifications notamment en produisant une diminution de la saturation d’oxygène, une baisse marquée de la fréquence cardiaque et respiratoire, une hypoalbuminémie ainsi qu’une augmentation de la durée d’anesthésie. Les paramètres pharmacocinétiques de la kétamine et de la xylazine furent grandement affectés par le vieillissement causant une augmentation progressive significative de l’aire sous la courbe (AUC) et du temps de demi-‐vie, ainsi qu’une diminution de la clairance. À la lumière de ces résultats, les doses de kétamine et de xylazine doivent être adaptées chez les rats vieillissants pour permettre une anesthésie de durée raisonnable et un réveil sans complications.
Resumo:
La phytoremédiation constitue une technologie alternative pour le traitement de sols contaminés en métaux. Toutefois, la biodisponibilité des métaux dans le sol peut limiter l’efficacité de cette approche. Nous émettons l’hypothèse que diverses espèces de plante, caractérisées par systèmes racinaires différents, peuvent affecter différemment la biodisponibilité des éléments traces (ET) dans le sol. Une étude utilisant un dispositif expérimental en bloc aléatoire complet avec cinq réplicats a été conduite entre le 6 juin et le 3 septembre 2014, sur le site du Jardin botanique de Montréal. Dans ce contexte, l’impact de la présence de huit espèces de plantes, herbacées ou ligneuses, sur le pool labile de six métaux (Ag, Cu, Pd, Zn, Ni et Se) dans la rhizosphère de celles-ci a été étudié. Après trois mois de culture, la biomasse aérienne et souterraine de chaque espèce a été mesurée et la concentration en ET dans les tissus des plantes a été analysée. La fraction labile de ces ET dans la rhizosphère (potentiellement celle qui serait biodisponible) de même que d’autres paramètres édaphiques (le pH, la conductivité, le pourcentage de matière organique et le carbone organique dissous (COD)) ont aussi été mesurés et comparés en fonction de la présence d’une ou l’autre des espèces utilisées. Les résultats montrent que pour la plupart des plantes testées, les plus fortes concentrations en ET ont été trouvées dans les racines alors que les plus faibles niveaux s’observaient dans les parties aériennes, sauf pour le Ni dans le Salix nigra. Ceci suggère que le Ni peut être extrait du sol par des récoltes régulières des tiges et des feuilles de cette espèce de saule. Les pools labiles de l’Ag, Ni et du Cu dans la rhizosphère étaient significativement et différemment affectés par la présence des plantes. Toutefois, la présence des plantes testées n’a pas affecté certains paramètres clés de la rhizosphère (ex. le pH, conductivité, et le pourcentage de matière organique). À l’opposé, les niveaux de COD dans la rhizosphère de toutes les plantes testées se sont révélés supérieurs en comparaison des témoins (sols non plantés). De plus, une corrélation positive a pu être établie entre la concentration disponible du Ni et la concentration en COD. Une relation similaire a été déterminée pour le Cu. Ceci suggère que certains systèmes racinaires pourraient modifier les niveaux de COD et avoir un impact indirect sur les pools labiles des ET dans le sol.
Resumo:
La sclérose latérale amyotrophique est une maladie neurodégénérative fatale caractérisée par la dégénérescence progressive des neurones moteurs centraux et périphériques. L’un des premiers signes de la maladie est la dénervation de la jonction neuromusculaire (JNM). Les diverses unités motrices (UM) ne présentent toutefois pas la même vulnérabilité à la dénervation dans la SLA: les UM rapide fatigables sont en fait les plus vulnérables et les UM lentes sont les plus résistantes. Alors que des études précédentes ont démontré dans plusieurs modèles animaux de la SLA de nombreuses variations synaptiques, les découvertes ont été contradictoires. Par ailleurs, le type d’UM n’a pas été tenu en compte dans ces divers travaux. Nous avons donc émis l’hypothèse que la présence de la mutation SOD1 pourrait affecter différemment la transmission synaptique des UM, en accord avec leur vulnérabilité sélective. En effectuant des enregistrements électrophysiologiques et de l’immunohistochimie, nous avons étudié la transmission synaptique des différents types d’UM du muscle à contraction rapide Extensor Digitorum Longus (EDL; rapide fatigable (FF) MU) et du muscle à contraction lente Soleus (SOL; lente (S) and rapide fatigue-résistante (FR) MU) de la souris SOD1G37R et leur congénères WT. Pour identifier le type d’UM, un marquage par immunohistochimie des chaînes de myosine a été effectué. Un triple marquage de la JNM a également été effectué pour vérifier son intégrité aux différents stades de la maladie. À P160, dans la période asymptomatique de la maladie, alors qu’aucune altération morphologique n’était présente, l’activité évoquée était déjà altérée différemment en fonction des UM. Les JNMs FF mutantes ont démontré une diminution de l’amplitude des potentiels de plaque motrice (PPM) et du contenu quantique, alors que les JNMs lentes démontraient pratiquement le contraire. Les JNMs FR montraient quant à elles une force synaptique semblable au WT. À P380, dans la période présymtomatique, de nombreuses altérations morphologiques ont été observées dans le muscle EDL, incluant la dénervation complète, l’innervation partielle et les extensions du nerf. La transmission synaptique évoquée des UM FF étaient toujours réduites, de même que la fréquence des potentiels de plaque motrice miniatures. À P425, à l’apparition des premiers symptômes, l’activité synaptique des JNMs S était redevenue normale alors que les JNMs FR ont montré à ce moment une diminution du contenu quantique par rapport au contrôle. De manière surprenante, aucun changement du ratio de facilitation n’a été observé malgré les changements flagrants de la force synaptique. Ces résultats révèlent que la fonction de la JNM est modifiée différemment en fonction de la susceptibilité des UM dans l’ALS. Cette étude fournit des pistes pour une meilleure compréhension de la physiologie de la JNM durant la pathologie qui est cruciale au développement d’une thérapie adéquate ciblant la JNM dans la SLA.
Resumo:
L’élevage des porcs représente une source importante de déversement d’antibiotiques dans l’environnement par l’intermédiaire de l’épandage du lisier qui contient une grande quantité de ces molécules sur les champs agricoles. Il a été prouvé que ces molécules biologiquement actives peuvent avoir un impact toxique sur l’écosystème. Par ailleurs, elles sont aussi suspectées d’engendrer des problèmes sanitaires et de contribuer à la résistance bactérienne pouvant mener à des infections difficilement traitables chez les humains. Le contrôle de ces substances dans l’environnement est donc nécessaire. De nombreuses méthodes analytiques sont proposées dans la littérature scientifique pour recenser ces composés dans plusieurs types de matrice. Cependant, peu de ces méthodes permettent l’analyse de ces contaminants dans des matrices issues de l’élevage agricole intensif. Par ailleurs, les méthodes analytiques disponibles sont souvent sujettes à des faux positifs compte tenu de la complexité des matrices étudiées et du matériel utilisé et ne prennent souvent pas en compte les métabolites et produits de dégradation. Enfin, les niveaux d’analyse atteints avec ces méthodes ne sont parfois plus à jour étant donné l’évolution de la chimie analytique et de la spectrométrie de masse. Dans cette optique, de nouvelles méthodes d’analyses ont été développées pour rechercher et quantifier les antibiotiques dans des matrices dérivées de l’élevage intensif des porcs en essayant de proposer des approches alternatives sensibles, sélectives et robustes pour quantifier ces molécules. Une première méthode d’analyse basée sur une technique d’introduction d’échantillon alternative à l’aide d’une interface fonctionnant à l’aide d’une désorption thermique par diode laser munie d’une source à ionisation à pression atmosphérique, couplée à la spectrométrie de masse en tandem a été développée. L’objectif est de proposer une analyse plus rapide tout en atteignant des niveaux de concentration adaptés à la matrice étudiée. Cette technique d’analyse couplée à un traitement d’échantillon efficace a permis l’analyse de plusieurs antibiotiques vétérinaires de différentes classes dans des échantillons de lisier avec des temps d’analyse courts. Les limites de détection atteintes sont comprises entre 2,5 et 8,3 µg kg-1 et sont comparables avec celles pouvant être obtenues avec la chromatographie liquide dans une matrice similaire. En vue d’analyser simultanément une série de tétracyclines, une deuxième méthode d’analyse utilisant la chromatographie liquide couplée à la spectrométrie de masse à haute résolution (HRMS) a été proposée. L’utilisation de la HRMS a été motivée par le fait que cette technique d’analyse est moins sensible aux faux positifs que le triple quadripôle traditionnel. Des limites de détection comprises entre 1,5 et 3,6 µg kg-1 ont été atteintes dans des échantillons de lisier en utilisant un mode d’analyse par fragmentation. L’utilisation de méthodes de quantifications ciblées est une démarche intéressante lorsque la présence de contaminants est suspectée dans un échantillon. Toutefois, les contaminants non intégrés à cette méthode d’analyse ciblée ne peuvent être détectés même à de fortes concentrations. Dans ce contexte, une méthode d’analyse non ciblée a été développée pour la recherche de pharmaceutiques vétérinaires dans des effluents agricoles en utilisant la spectrométrie de masse à haute résolution et une cartouche SPE polymérique polyvalente. Cette méthode a permis l’identification d’antibiotiques et de pharmaceutiques couramment utilisés dans l’élevage porcin. La plupart des méthodes d’analyse disponibles dans la littérature se concentrent sur l’analyse des composés parents, mais pas sur les sous-produits de dégradation. L’approche utilisée dans la deuxième méthode d’analyse a donc été étendue et appliquée à d’autres classes d’antibiotiques pour mesurer les concentrations de plusieurs résidus d’antibiotiques dans les sols et les eaux de drainage d’un champ agricole expérimental. Les sols du champ renfermaient un mélange d’antibiotiques ainsi que leurs produits de dégradation relatifs à des concentrations mesurées jusqu’à 1020 µg kg-1. Une partie de ces composés ont voyagé par l’intermédiaire des eaux de drainage du champ ou des concentrations pouvant atteindre 3200 ng L-1 ont pu être relevées.
Resumo:
réalisé en cotutelle avec Marie Archambault
Resumo:
Les ARN non codants (ARNnc) sont des transcrits d'ARN qui ne sont pas traduits en protéines et qui pourtant ont des fonctions clés et variées dans la cellule telles que la régulation des gènes, la transcription et la traduction. Parmi les nombreuses catégories d'ARNnc qui ont été découvertes, on trouve des ARN bien connus tels que les ARN ribosomiques (ARNr), les ARN de transfert (ARNt), les snoARN et les microARN (miARN). Les fonctions des ARNnc sont étroitement liées à leurs structures d’où l’importance de développer des outils de prédiction de structure et des méthodes de recherche de nouveaux ARNnc. Les progrès technologiques ont mis à la disposition des chercheurs des informations abondantes sur les séquences d'ARN. Ces informations sont accessibles dans des bases de données telles que Rfam, qui fournit des alignements et des informations structurelles sur de nombreuses familles d'ARNnc. Dans ce travail, nous avons récupéré toutes les séquences des structures secondaires annotées dans Rfam, telles que les boucles en épingle à cheveux, les boucles internes, les renflements « bulge », etc. dans toutes les familles d'ARNnc. Une base de données locale, RNAstem, a été créée pour faciliter la manipulation et la compilation des données sur les motifs de structure secondaire. Nous avons analysé toutes les boucles terminales et internes ainsi que les « bulges » et nous avons calculé un score d’abondance qui nous a permis d’étudier la fréquence de ces motifs. Tout en minimisant le biais de la surreprésentation de certaines classes d’ARN telles que l’ARN ribosomal, l’analyse des scores a permis de caractériser les motifs rares pour chacune des catégories d’ARN en plus de confirmer des motifs communs comme les boucles de type GNRA ou UNCG. Nous avons identifié des motifs abondants qui n’ont pas été étudiés auparavant tels que la « tetraloop » UUUU. En analysant le contenu de ces motifs en nucléotides, nous avons remarqué que ces régions simples brins contiennent beaucoup plus de nucléotides A et U. Enfin, nous avons exploré la possibilité d’utiliser ces scores pour la conception d’un filtre qui permettrait d’accélérer la recherche de nouveaux ARN non-codants. Nous avons développé un système de scores, RNAscore, qui permet d’évaluer un ARN en se basant sur son contenu en motifs et nous avons testé son applicabilité avec différents types de contrôles.
Resumo:
La synthèse d'images dites photoréalistes nécessite d'évaluer numériquement la manière dont la lumière et la matière interagissent physiquement, ce qui, malgré la puissance de calcul impressionnante dont nous bénéficions aujourd'hui et qui ne cesse d'augmenter, est encore bien loin de devenir une tâche triviale pour nos ordinateurs. Ceci est dû en majeure partie à la manière dont nous représentons les objets: afin de reproduire les interactions subtiles qui mènent à la perception du détail, il est nécessaire de modéliser des quantités phénoménales de géométries. Au moment du rendu, cette complexité conduit inexorablement à de lourdes requêtes d'entrées-sorties, qui, couplées à des évaluations d'opérateurs de filtrage complexes, rendent les temps de calcul nécessaires à produire des images sans défaut totalement déraisonnables. Afin de pallier ces limitations sous les contraintes actuelles, il est nécessaire de dériver une représentation multiéchelle de la matière. Dans cette thèse, nous construisons une telle représentation pour la matière dont l'interface correspond à une surface perturbée, une configuration qui se construit généralement via des cartes d'élévations en infographie. Nous dérivons notre représentation dans le contexte de la théorie des microfacettes (conçue à l'origine pour modéliser la réflectance de surfaces rugueuses), que nous présentons d'abord, puis augmentons en deux temps. Dans un premier temps, nous rendons la théorie applicable à travers plusieurs échelles d'observation en la généralisant aux statistiques de microfacettes décentrées. Dans l'autre, nous dérivons une procédure d'inversion capable de reconstruire les statistiques de microfacettes à partir de réponses de réflexion d'un matériau arbitraire dans les configurations de rétroréflexion. Nous montrons comment cette théorie augmentée peut être exploitée afin de dériver un opérateur général et efficace de rééchantillonnage approximatif de cartes d'élévations qui (a) préserve l'anisotropie du transport de la lumière pour n'importe quelle résolution, (b) peut être appliqué en amont du rendu et stocké dans des MIP maps afin de diminuer drastiquement le nombre de requêtes d'entrées-sorties, et (c) simplifie de manière considérable les opérations de filtrage par pixel, le tout conduisant à des temps de rendu plus courts. Afin de valider et démontrer l'efficacité de notre opérateur, nous synthétisons des images photoréalistes anticrenelées et les comparons à des images de référence. De plus, nous fournissons une implantation C++ complète tout au long de la dissertation afin de faciliter la reproduction des résultats obtenus. Nous concluons avec une discussion portant sur les limitations de notre approche, ainsi que sur les verrous restant à lever afin de dériver une représentation multiéchelle de la matière encore plus générale.
Resumo:
Compte rendu critique de la création théâtrale du Nouveau Théâtre Expérimental « Les Mots », novembre 1998.