642 resultados para CHAMP
Resumo:
Le début du XIXe siècle est une période marquée par de nombreux bouleversements politiques, dont les rébellions des Patriotes et l'Acte d'Union qui s'ensuit, impliquant une forte présence de la censure dans la presse canadienne de l’époque. Afin de contourner ce couperet de la censure, plusieurs journaux politiques effectuent un glissement du factuel au fictionnel. L'exemple le plus remarquable de ce choix de la littérarité est le journal Le Fantasque, édité par Napoléon Aubin et publié de 1837 à 1845 dans la ville de Québec. L'actualité y est rapportée à travers le prisme de la fiction, qui se déploie principalement par le biais des personnages. Le flâneur fantasque constitue la figure centrale et créatrice du journal. Par le récit de ses promenades et rencontres et par l'insertion de lettres presque toujours fictives de protagonistes de l'actualité, le flâneur donne accès à une multitude de voix disparates qui se font les porte-paroles de l'actualité. Ce passage systématique par les personnages fait du journal une œuvre et de l'actualité un récit. Nous étudions le système de personnages qui anime Le Fantasque de 1837 à 1842 et l’effet de son utilisation sur le récit de l’actualité et la lecture. Notre analyse s'inscrit dans le champ prolifique des études sur la presse et s’appuie principalement sur l’analyse de textes. Elle vise à ajouter aux connaissances sur les débuts de la littérature canadienne, à montrer sa vitalité et son ouverture au monde. Nous désirons aussi apporter des outils pour l'analyse de la forme journalistique et la reconnaissance des qualités littéraires de plusieurs textes publiés dans Le Fantasque.
Resumo:
Travail réalisé à l'EBSI, Université de Montréal, sous la direction de M. Yvon Lemay dans le cadre du cours SCI6111 Politique de gestion des archives, à l'automne 2014.
Resumo:
Contexte. Les produits de santé naturels (PSN) suscitent de plus en plus d’intérêt au sein de la population. Les professionnels de la santé, dont les nutritionnistes, doivent être à l’affût de cette tendance afin de conseiller les utilisateurs et de limiter les risques liés à leur utilisation. Objectif. Explorer l’expérience, les perceptions et les besoins de formation des nutritionnistes du Québec à l’égard des PSN. Méthodes. Un sondage électronique a été envoyé à tous les membres de l’Ordre professionnel des diététistes du Québec via Fluid Survey. Les questions visaient à identifier les expériences, les attitudes à l’égard des PSN et de leur clientèle qui en consomme, les sources d’informations utilisées dans leurs consultations et d’identifier les besoins de formations en relation avec les PSN. Résultats. Au total, 295 nutritionnistes ont complété le questionnaire. Parmi ceux-ci, 93 % ont déjà reçu des questions portant sur les PSN. Environ 91 % ont déclaré consommer ou avoir déjà consommé un PSN et, au moins 94 % ont affirmé avoir recommandé un PSN. Aussi, 95 % de l’échantillon désiraient davantage d’informations sur les PSN. Enfin, ils ont une perception positive quant à leur rôle dans ce dossier, puisque 77 % de l’échantillon ont indiqué que le nutritionniste devrait être une source d’informations sur les PSN. Conclusion. Les grands constats de notre étude révèlent que le rôle des nutritionnistes du Québec en relation avec les PSN n’est pas clairement défini. Ils ont besoin de formation sur les PSN afin d’être outillés pour conseiller la population et, ainsi, leur ouvrir un nouveau champ d’expertise.
Resumo:
La perméthrine fait partie de la famille des pyréthrinoïdes qui sont abondamment utilisés en agriculture. Le but de cette étude était d'obtenir des données sur la cinétique des biomarqueurs d'exposition à la perméthrine en condition réelle d'exposition chez les travailleurs agricoles. Douze travailleurs (un applicateur, un superviseur et dix cueilleurs) exposés à la perméthrine dans le cadre de leur emploi ont été recrutés dans une ferme maraichère de la Montérégie (Québec). Ils ont fourni toutes leurs urines sur une période de trois jours suivant le début des travaux dans un champ traité. Les trois principaux métabolites de la perméthrine, l'acide cis-/trans-3-(2,2-dichlorovinyle)-2,2-diméthylecyclopropane carboxylique (cis-/trans-DCCA) et l'acide 3-phénoxybenzoïque (3-PBA) ont été analysés par chromatographie liquide à ultra-haute performance couplée à la spectrométrie de masse à temps de vol. Pour l'applicateur, une augmentation progressive des valeurs d'excrétion a été observée avec un pic unique atteint environ 30 h après le début de l'exposition d'une durée de 3,5 h suivi d'une élimination avec une demi-vie de 8 h. Pour le superviseur et l'un des cueilleurs, les profils d'excrétion de trans-DCCA et de 3-PBA étaient compatibles avec de multiples entrées dans la zone traitée pendant la période d'échantillonnage accompagné d'une élimination rapide entre les épisodes d'exposition.L'applicateur aurait été exposé indirectement par contact main-bouche, alors que les autres travailleurs auraient été exposés par la voie cutanée. Pour une surveillance biologique adéquate, nous recommandons de mesurer deux biomarqueurs de la perméthrine, soit le trans-DCCA et le 3-PBA et de prendre un minimum de trois échantillons urinaires, un avant et deux pendant ou suivant la période d'exposition.
Resumo:
Rapport de stage présenté à la Faculté des sciences infirmières en vue de l'obtention du grade de Maître ès sciences (M.Sc.) en sciences infirmières option formation
Resumo:
Cette recherche porte un regard critique sur les interfaces de spatialisation sonore et positionne la composition de musique spatiale, un champ d’étude en musique, à l’avant plan d’une recherche en design. Il détaille l’approche de recherche qui est centrée sur le processus de composition de musique spatiale et les modèles mentaux de compositeurs électroacoustiques afin de livrer des recommandations de design pour le développement d’une interface de spatialisation musicale nommée Centor. Cette recherche montre qu’un processus de design mené à l’intersection du design d’interface, du design d’interaction et de la théorie musicale peut mener à une proposition pertinente et innovatrice pour chacun des domaines d’étude. Nous présentons la recherche et le développement du concept de spatialisation additive, une méthode de spatialisation sonore par patrons qui applique le vocabulaire spectromorphologique de Denis Smalley. C’est un concept d’outil de spatialisation pour le studio qui complémente les interfaces de composition actuelles et ouvre un nouveau champ de possibilités pour l’exploration spatiale en musique électroacoustique. La démarche de recherche présentée ici se veut une contribution au domaine du design d’interfaces musicales, spécifiquement les interfaces de spatialisation, mais propose aussi un processus de design pour la création d’interfaces numériques d’expression artistique.
Resumo:
Des efforts de recherche considérables ont été déployés afin d'améliorer les résultats de traitement de cancers pulmonaires. L'étude de la déformation de l'anatomie du patient causée par la ventilation pulmonaire est au coeur du processus de planification de traitement radio-oncologique. À l'aide d'images de tomodensitométrie quadridimensionnelles (4DCT), une simulation dosimétrique peut être calculée sur les 10 ensembles d'images du 4DCT. Une méthode doit être employée afin de recombiner la dose de radiation calculée sur les 10 anatomies représentant une phase du cycle respiratoire. L'utilisation de recalage déformable d'images (DIR), une méthode de traitement d'images numériques, génère neuf champs vectoriels de déformation permettant de rapporter neuf ensembles d'images sur un ensemble de référence correspondant habituellement à la phase d'expiration profonde du cycle respiratoire. L'objectif de ce projet est d'établir une méthode de génération de champs de déformation à l'aide de la DIR conjointement à une méthode de validation de leur précision. Pour y parvenir, une méthode de segmentation automatique basée sur la déformation surfacique de surface à été créée. Cet algorithme permet d'obtenir un champ de déformation surfacique qui décrit le mouvement de l'enveloppe pulmonaire. Une interpolation volumétrique est ensuite appliquée dans le volume pulmonaire afin d'approximer la déformation interne des poumons. Finalement, une représentation en graphe de la vascularisation interne du poumon a été développée afin de permettre la validation du champ de déformation. Chez 15 patients, une erreur de recouvrement volumique de 7.6 ± 2.5[%] / 6.8 ± 2.1[%] et une différence relative des volumes de 6.8 ± 2.4 [%] / 5.9 ± 1.9 [%] ont été calculées pour le poumon gauche et droit respectivement. Une distance symétrique moyenne 0.8 ± 0.2 [mm] / 0.8 ± 0.2 [mm], une distance symétrique moyenne quadratique de 1.2 ± 0.2 [mm] / 1.3 ± 0.3 [mm] et une distance symétrique maximale 7.7 ± 2.4 [mm] / 10.2 ± 5.2 [mm] ont aussi été calculées pour le poumon gauche et droit respectivement. Finalement, 320 ± 51 bifurcations ont été détectées dans le poumons droit d'un patient, soit 92 ± 10 et 228 ± 45 bifurcations dans la portion supérieure et inférieure respectivement. Nous avons été en mesure d'obtenir des champs de déformation nécessaires pour la recombinaison de dose lors de la planification de traitement radio-oncologique à l'aide de la méthode de déformation hiérarchique des surfaces. Nous avons été en mesure de détecter les bifurcations de la vascularisation pour la validation de ces champs de déformation.
Resumo:
Depuis les années cinquante la sociologie a été concernée par le phénomène des mouvements sociaux. Diverses théories ont essayé de les expliquer. Du collective behaviour à la mobilisation des ressources, par l`entremise de processus politiques, et de la perspective de framing jusqu'à la théorie des nouveaux mouvements sociaux, la sociologie a trouvé certains moyens pour expliquer ces phénomènes. Bien que toutes ces perspectives couvrent et saisissent des facettes importantes des angles de l'action collective, ils le font de manière disparate, en regardant un côté et en omettant l'autre. Les différences entre les points de vue proviennent, d'une part, d'un changement dans les contextes sociaux, historiques et scientifiques, et d'autre part du fait que les différentes approches ne posent pas les mêmes questions, même si certaines questions se chevauchent. Poser des questions différentes amène à considérer des aspects différents. En conséquence, ce n'est pas seulement une question de donner une réponse différente à la même question, mais aussi une question de regarder le même objet d'étude, à partir d'un angle différent. Cette situation réside à la base de la première partie de ma thèse principale: le champ de la théorie des mouvements sociaux n'est pas suffisant, ni suffisamment intégré pour expliquer l'action collective et nous avons besoin d'une théorie plus complète afin d'obtenir une meilleure compréhension des mouvements et la façon dont ils remplissent leur rôle de précurseurs de changement dans la société. Par conséquent, je considère que nous avons besoin d'une théorie qui est en mesure d'examiner tous les aspects des mouvements en même temps et, en outre, est capable de regarder au-delà de la forme de l'objet d’étude afin de se concentrer sur l'objet lui-même. Cela m'amène à la deuxième partie de l'argument, qui est l'affirmation selon laquelle la théorie générale des systèmes telle que formulée par Niklas Luhmann peut contribuer à une meilleure compréhension de l'action collective. Il s'agit d'une théorie intégrale qui peut compléter le domaine de la théorie de l`action collective en nous fournissant les outils nécessaires pour rechercher dynamiquement les mouvements sociaux et de les comprendre dans le contexte social en perpétuel changement. Une analyse du mouvement environnementaliste sera utilisé pour montrer comment les outils fournis par cette théorie nous permettent de mieux comprendre non seulement les mouvements sociaux, mais également le contexte dans lequel ils fonctionnent, comment ils remplissent leur rôle, comment ils évoluent et comment ils changent aussi la société.
Maurice Sand, un créateur fantastique méconnu : la transversalité, brisant d’une œuvre au 19e siècle
Resumo:
Sauf par des regards fugitifs et distraits sur son travail d’illustrateur et son théâtre de marionnettes, l’histoire culturelle et littéraire n’a en général retenu de Maurice Sand que son état de fils bien-aimé de la plus célèbre écrivaine du 19e siècle. Étudiée pour elle-même, son œuvre multidisciplinaire - qui allie peinture, dessin, illustration, théâtre, histoire de l’art, sciences naturelles - se propose pourtant avec cohérence, marque d’une création soutenue plutôt que du dilettantisme où son souvenir s’est incrusté. Maurice Sand apparaît alors comme un de ces individus situés aux interstices des récits majeurs de la littérature et des arts qui, bien qu’ayant figure de minores, amènent à des réflexions nuancées sur la constitution de ces récits. Explorer son cas permet ainsi de scruter de plus près les mécanismes de la méconnaissance qui a pu et peut encore affecter un créateur et une œuvre soumis aux arbitrages mémoriels. Discrets angles morts de l’histoire, certains de ces mécanismes jalonnent clairement son parcours et les aléas de sa trace posthume. D’une part le vaste corpus des études sur George Sand, notamment des écrits biographiques et autobiographiques, fait voir à l’œuvre le mode déformant de la constitution de la mémoire d’un être saisi à partir des positions d’autrui : son existence devient cliché, elle se réduit peu à peu au rôle d’adjuvant dans des débats, passés ou actuels, qui font l’impasse sur le cours autonome de sa carrière, voire de sa vie. D’autre part la mise au jour de son œuvre, enfin vue comme un ensemble, dévoile une cause encore plus déterminante de sa méconnaissance. Presque tous les travaux de Maurice Sand sont traversés par une ligne de fantastique, au surplus connotée par son intérêt pour les sciences liées à la métamorphose, de l’ethnogénie à l’entomologie. Réinvention constante du passé, sa démarche cognitive et créatrice ignore les frontières disciplinaires, son objet est hybride et composé. L’œuvre se constitue ainsi par transversalité, trait et trame irrecevables en un siècle qui n’y perçut que dispersion, mais paradoxalement marque supérieure de qualité dans le champ éclaté où se déploient les arts de notre temps.
Resumo:
Ce mémoire étudie les origines de l’engagement des combattants de nationalité française en faveur de la sécession du Katanga (1960-63), au moment de l’indépendance du Congo belge. Recrutés pour s’opposer à l’Armée nationale congolaise et aux Casques bleus de l’ONU qui cherchent à faire réintégrer la province par la force, ces hommes aguerris par quinze années de guerre contre-insurrectionnelle vont s’avérer être les éléments clefs du dispositif militaire katangais. Centrée sur les « conditions objectives » de l’action plutôt que sur ses « fondements psychologiques », notre étude vise à mettre en lumière les « forces profondes » au gré desquelles l’intervention des « affreux » a pris forme. Elle s’intéresse en particulier à la trajectoire de trois figures remarquables du point de vue de l'historiographie de l'engagement armé international : Roger Trinquier, Roger Faulques et Bob Denard. Inspirée de la sociologie du champ intellectuel et militant dont elle contribue à montrer la pertinence pour l’étude du fait militaire transnational, notre recherche soutient que le sens de l'engagement ne peut être saisi qu'en replaçant la trajectoire de ces hommes au sein des différents niveaux de contexte dans lesquels elle s’est réalisée. Notre mémoire montre que le recours aux « affreux » coïncide avec le recul des vieilles puissances coloniales sur la scène internationale et avec l'affirmation des nouveaux acteurs que sont les États-Unis, l'URSS et l'ONU. L'engagement de ces hommes, dépourvus de statut officiel, apparaît pour la France comme un moyen détourné de maintenir en Afrique des intérêts et une influence contraire à la dynamique des indépendances.
Resumo:
Ma recherche vise à comprendre de quelle façon les principales questions économiques (carences alimentaires et énergétiques), sociales (émigration massive, inégalités, racisme), politiques (manque de liberté, autoritarisme) et culturelles (immobilisme, censure) qui se produisent à Cuba depuis 1990 jusqu’à nos jours, se reflètent sur l’œuvre artistique d'un certain nombre de groupes musicaux. L’objectif de cette étude est de définir si ces expressions artistiques peuvent être considérées comme un miroir de la société de cette période, puisque elles contemplent des aspects d’intérêt public que le discours officiel tait. L’analyse veut examiner les stratégies discursives des paroles d’une certaine production musicale représentative d’un champ musical riche et complexe. D’autre part, l’étude vise à comprendre si la musique peut être considérée comme un espace de société civile dans un contexte qui empêche la libre formation d’agents sociaux. Cette étude considère l’œuvre de cinq artistes qui cultivent des genres musicaux bien différents : trova (Frank Delgado et Carlos Varela), rap (Krudas Cubensi et Los Aldeanos) et punk (Porno Para Ricardo). L’étude sera principalement littéraire, puisque l’analyse se centrera sur les paroles des chansons, qui sont considérées comme des textes littéraires. Après avoir sélectionné un corpus significatif de chansons, celui-ci sera analysé de façon systématique et transversale, en essayant de mettre en évidence les effets produits et leurs significations, évidentes et symboliques. De façon ponctuelle, je ferai aussi référence au performance et à l’esthétique. Cette étude prétend mettre en lumière la production littéraire/musicale d'artistes peu connus hors de Cuba et peu valorisés et diffusés à l’intérieur de l’île. L’un des buts est de montrer comment, dans un contexte politique dominé par l’autoritarisme et la censure, il peut exister des formes d’expressions capables de communiquer des messages subversifs et dissidents.
Resumo:
Thèse de doctorat effectuée en cotutelle au Département d’histoire de l’art et d’études cinématographiques, Faculté des arts et des sciences, Université de Montréal et à l’Institut de recherche sur le cinéma et l'audiovisuel (IRCAV), Arts et Médias, ED 267, Université Sorbonne Nouvelle – Paris 3
Resumo:
Située dans le discours actuel à la mode sur la diversité culturelle, l’objet de cette thèse consiste à comprendre l’orientation pratique d’une organisation internationale en matière de gestion de sa diversité culturelle interne. Il propose que, face aux changements qui ont modifié la configuration sociodémographique de la sphère organisationnelle, il serait intéressant de partir d’une organisation pour laquelle la diversité est une tradition tributaire de son fonctionnement. L’organisation sujet d’étude est internationale, affiliée à l’Unesco. Cette dernière étant reconnue pour son mandat qui valorise et protège les cultures. L’ancrage épistémologique de la thèse est bi-disciplinaire. Il considère deux champs théoriques sur lesquels se construit la diversité culturelle. Le premier est forgé dans les théories de management dites « occidentales » sur la diversité. Le deuxième champ, s’établit sur une approche dynamique de la culture apportée par les « Cross-Cultural Studies ». La méthodologie que nous avons mobilisée pour cette recherche est principalement qualitative. Elle est également diverse puisqu’elle veut identifier trois niveaux d’analyses. D’abord, l’étude historique réalisée se fonde sur l’analyse d’articles choisis tirés des archives de l’« organisation mère » (Unesco). Elle se veut être une étude exhaustive qui révèle l’évolution du discours « global » de cette organisation sur la diversité culturelle depuis sa création. Ensuite, afin de mieux comprendre le discours interne de l’Organisation sur la diversité culturelle, une analyse du contenu d’un « halo » de ses politiques internes a lieu. Elle nous permet de comprendre la valeur que prend la diversité culturelle dans son discours « organisationnel » dans la période de temps que nous traitons. Enfin, les histoires « individuelles » des acteurs de la diversité culturelle, apportent une description riche et, complètent l’analyse avec leurs interprétions des pratiques de gestions mises en place à leur égard. Des éléments de recherche sous adjacentes sont aussi amenés dans la thèse et font également partie du processus de l’analyse de la pratique de la diversité culturelle dans l’Organisation. En effet, la thèse se penche sur le problème conceptuel sur la « diversité culturelle ». Elle apporte des éclaircissements à la terminologie à travers l’analyse de ses différents emplois dans la littérature organisationnelle. Par ailleurs, elle clarifie la notion d’organisation internationale et propose une description du contexte unesquien défini par sa diversité culturelle interne. L’ensemble des niveaux examinés a permis de mettre en évidence une double constatation. D’une part, le paradoxe entre les trois niveaux. D’autre part, la neutralité des pratiques de gestion de la diversité culturelle pour les employés et la demande implicite de reconnaissance de leurs identités culturelles. Des recommandations sont proposées et des suggestions pour de recherches ultérieures sont formulées à la conclusion de la thèse.
Resumo:
La tomographie d’émission par positrons (TEP) est une modalité d’imagerie moléculaire utilisant des radiotraceurs marqués par des isotopes émetteurs de positrons permettant de quantifier et de sonder des processus biologiques et physiologiques. Cette modalité est surtout utilisée actuellement en oncologie, mais elle est aussi utilisée de plus en plus en cardiologie, en neurologie et en pharmacologie. En fait, c’est une modalité qui est intrinsèquement capable d’offrir avec une meilleure sensibilité des informations fonctionnelles sur le métabolisme cellulaire. Les limites de cette modalité sont surtout la faible résolution spatiale et le manque d’exactitude de la quantification. Par ailleurs, afin de dépasser ces limites qui constituent un obstacle pour élargir le champ des applications cliniques de la TEP, les nouveaux systèmes d’acquisition sont équipés d’un grand nombre de petits détecteurs ayant des meilleures performances de détection. La reconstruction de l’image se fait en utilisant les algorithmes stochastiques itératifs mieux adaptés aux acquisitions à faibles statistiques. De ce fait, le temps de reconstruction est devenu trop long pour une utilisation en milieu clinique. Ainsi, pour réduire ce temps, on les données d’acquisition sont compressées et des versions accélérées d’algorithmes stochastiques itératifs qui sont généralement moins exactes sont utilisées. Les performances améliorées par l’augmentation de nombre des détecteurs sont donc limitées par les contraintes de temps de calcul. Afin de sortir de cette boucle et permettre l’utilisation des algorithmes de reconstruction robustes, de nombreux travaux ont été effectués pour accélérer ces algorithmes sur les dispositifs GPU (Graphics Processing Units) de calcul haute performance. Dans ce travail, nous avons rejoint cet effort de la communauté scientifique pour développer et introduire en clinique l’utilisation des algorithmes de reconstruction puissants qui améliorent la résolution spatiale et l’exactitude de la quantification en TEP. Nous avons d’abord travaillé sur le développement des stratégies pour accélérer sur les dispositifs GPU la reconstruction des images TEP à partir des données d’acquisition en mode liste. En fait, le mode liste offre de nombreux avantages par rapport à la reconstruction à partir des sinogrammes, entre autres : il permet d’implanter facilement et avec précision la correction du mouvement et le temps de vol (TOF : Time-Of Flight) pour améliorer l’exactitude de la quantification. Il permet aussi d’utiliser les fonctions de bases spatio-temporelles pour effectuer la reconstruction 4D afin d’estimer les paramètres cinétiques des métabolismes avec exactitude. Cependant, d’une part, l’utilisation de ce mode est très limitée en clinique, et d’autre part, il est surtout utilisé pour estimer la valeur normalisée de captation SUV qui est une grandeur semi-quantitative limitant le caractère fonctionnel de la TEP. Nos contributions sont les suivantes : - Le développement d’une nouvelle stratégie visant à accélérer sur les dispositifs GPU l’algorithme 3D LM-OSEM (List Mode Ordered-Subset Expectation-Maximization), y compris le calcul de la matrice de sensibilité intégrant les facteurs d’atténuation du patient et les coefficients de normalisation des détecteurs. Le temps de calcul obtenu est non seulement compatible avec une utilisation clinique des algorithmes 3D LM-OSEM, mais il permet également d’envisager des reconstructions rapides pour les applications TEP avancées telles que les études dynamiques en temps réel et des reconstructions d’images paramétriques à partir des données d’acquisitions directement. - Le développement et l’implantation sur GPU de l’approche Multigrilles/Multitrames pour accélérer l’algorithme LMEM (List-Mode Expectation-Maximization). L’objectif est de développer une nouvelle stratégie pour accélérer l’algorithme de référence LMEM qui est un algorithme convergent et puissant, mais qui a l’inconvénient de converger très lentement. Les résultats obtenus permettent d’entrevoir des reconstructions en temps quasi-réel que ce soit pour les examens utilisant un grand nombre de données d’acquisition aussi bien que pour les acquisitions dynamiques synchronisées. Par ailleurs, en clinique, la quantification est souvent faite à partir de données d’acquisition en sinogrammes généralement compressés. Mais des travaux antérieurs ont montré que cette approche pour accélérer la reconstruction diminue l’exactitude de la quantification et dégrade la résolution spatiale. Pour cette raison, nous avons parallélisé et implémenté sur GPU l’algorithme AW-LOR-OSEM (Attenuation-Weighted Line-of-Response-OSEM) ; une version de l’algorithme 3D OSEM qui effectue la reconstruction à partir de sinogrammes sans compression de données en intégrant les corrections de l’atténuation et de la normalisation dans les matrices de sensibilité. Nous avons comparé deux approches d’implantation : dans la première, la matrice système (MS) est calculée en temps réel au cours de la reconstruction, tandis que la seconde implantation utilise une MS pré- calculée avec une meilleure exactitude. Les résultats montrent que la première implantation offre une efficacité de calcul environ deux fois meilleure que celle obtenue dans la deuxième implantation. Les temps de reconstruction rapportés sont compatibles avec une utilisation clinique de ces deux stratégies.
Resumo:
Les ombres sont un élément important pour la compréhension d'une scène. Grâce à elles, il est possible de résoudre des situations autrement ambigües, notamment concernant les mouvements, ou encore les positions relatives des objets de la scène. Il y a principalement deux types d'ombres: des ombres dures, aux limites très nettes, qui résultent souvent de lumières ponctuelles ou directionnelles; et des ombres douces, plus floues, qui contribuent à l'atmosphère et à la qualité visuelle de la scène. Les ombres douces résultent de grandes sources de lumière, comme des cartes environnementales, et sont difficiles à échantillonner efficacement en temps réel. Lorsque l'interactivité est prioritaire sur la qualité, des méthodes d'approximation peuvent être utilisées pour améliorer le rendu d'une scène à moindre coût en temps de calcul. Nous calculons interactivement les ombres douces résultant de sources de lumière environnementales, pour des scènes composées d'objets en mouvement et d'un champ de hauteurs dynamique. Notre méthode enrichit la méthode d'exponentiation des harmoniques sphériques, jusque là limitée aux bloqueurs sphériques, pour pouvoir traiter des champs de hauteurs. Nous ajoutons également une représentation pour les BRDFs diffuses et glossy. Nous pouvons ainsi combiner les visibilités et BRDFs dans un même espace, afin de calculer efficacement les ombres douces et les réflexions de scènes complexes. Un algorithme hybride, qui associe les visibilités en espace écran et en espace objet, permet de découpler la complexité des ombres de la complexité de la scène.