39 resultados para Image simulations


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Naïvement perçu, le processus d’évolution est une succession d’événements de duplication et de mutations graduelles dans le génome qui mènent à des changements dans les fonctions et les interactions du protéome. La famille des hydrolases de guanosine triphosphate (GTPases) similaire à Ras constitue un bon modèle de travail afin de comprendre ce phénomène fondamental, car cette famille de protéines contient un nombre limité d’éléments qui diffèrent en fonctionnalité et en interactions. Globalement, nous désirons comprendre comment les mutations singulières au niveau des GTPases affectent la morphologie des cellules ainsi que leur degré d’impact sur les populations asynchrones. Mon travail de maîtrise vise à classifier de manière significative différents phénotypes de la levure Saccaromyces cerevisiae via l’analyse de plusieurs critères morphologiques de souches exprimant des GTPases mutées et natives. Notre approche à base de microscopie et d’analyses bioinformatique des images DIC (microscopie d’interférence différentielle de contraste) permet de distinguer les phénotypes propres aux cellules natives et aux mutants. L’emploi de cette méthode a permis une détection automatisée et une caractérisation des phénotypes mutants associés à la sur-expression de GTPases constitutivement actives. Les mutants de GTPases constitutivement actifs Cdc42 Q61L, Rho5 Q91H, Ras1 Q68L et Rsr1 G12V ont été analysés avec succès. En effet, l’implémentation de différents algorithmes de partitionnement, permet d’analyser des données qui combinent les mesures morphologiques de population native et mutantes. Nos résultats démontrent que l’algorithme Fuzzy C-Means performe un partitionnement efficace des cellules natives ou mutantes, où les différents types de cellules sont classifiés en fonction de plusieurs facteurs de formes cellulaires obtenus à partir des images DIC. Cette analyse démontre que les mutations Cdc42 Q61L, Rho5 Q91H, Ras1 Q68L et Rsr1 G12V induisent respectivement des phénotypes amorphe, allongé, rond et large qui sont représentés par des vecteurs de facteurs de forme distincts. Ces distinctions sont observées avec différentes proportions (morphologie mutante / morphologie native) dans les populations de mutants. Le développement de nouvelles méthodes automatisées d’analyse morphologique des cellules natives et mutantes s’avère extrêmement utile pour l’étude de la famille des GTPases ainsi que des résidus spécifiques qui dictent leurs fonctions et réseau d’interaction. Nous pouvons maintenant envisager de produire des mutants de GTPases qui inversent leur fonction en ciblant des résidus divergents. La substitution fonctionnelle est ensuite détectée au niveau morphologique grâce à notre nouvelle stratégie quantitative. Ce type d’analyse peut également être transposé à d’autres familles de protéines et contribuer de manière significative au domaine de la biologie évolutive.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La transsexualité et son image représentent pour plusieurs une subversion ou une transgression de la binarité du genre. L’image de la transsexualité est souvent considérée en termes de représentation. Afin de questionner cette image transsexuelle, sa subversivité, sa transgressivité et même sa représentabilité, on tentera de la regarder autrement. Ce mémoire propose d'étudier l'image audiovisuelle de la transsexualité comme figure. Pour définir la figure, on la distinguera d'un autre concept esthétique : la représentation. Par l'analyse d'un film, Transamerica (2005), réalisé par Duncan Tucker, on verra comment certaines modalités donnent à voir la figure trans. Suite à cette analyse de la figure au cinéma, on rendra compte de la manière avec laquelle on a poursuivi, au moyen de la vidéo, la recherche qui concerne la question de la figure trans.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Pour la pensée humaine, l’image a toujours constitué une interrogation laissée sans réponse définitive : de l’interdit biblique à la possibilité technologique infinie, l’image a traversé des étapes conceptuelles complexes et hétérogènes. Aujourd’hui, on conçoit l’image comme une présence incontournable de l’existence quotidienne et comme une forme de réflexion mystérieuse. Cette thèse propose une analyse de la vision sur l’image chez Walter Benjamin et Aby Warburg à travers quelques concepts essentiels : image de pensée, survivance, espace de pensée, coupure, représentation de l’histoire. Située énigmatiquement entre les arts visuels et la pensée philosophique, l’image devient un sujet de réflexion à la fin du 19e siècle et au début du 20e siècle; les deux penseurs mentionnés ont été les premiers à interroger les valeurs conceptuelles de l’image et à chercher de l’évoquer en tant que spectre de la pensée. Les morceaux aphoristiques et les articles critiques de Benjamin rencontrent discrètement les études esthétiques de Warburg au point où l’idée de l’image amorce toute réflexion. Pour l’imaginaire contemporain, les structures conceptuelles bâties par Benjamin et Warburg constituent des éléments dominants dans l’engrenage réflexif atonal d’aujourd’hui. Lorsque le Denkraum (espace de pensée) et le Denkbild (image de pensée) gèrent la dynamique de la philosophie de Benjamin et Warburg, le Nachleben (survie) et la coupure nuancent le grand tableau de l’histoire (Geschichtsdarstellung). L’analyse comparatiste de ces concepts aboutit à la conclusion que l’image est intimement et paradoxalement liée à la vision de l’histoire; en fait, l’image n’est qu’une représentation de l’histoire qui, à son tour, se représente dans chaque image.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Notre progiciel PoweR vise à faciliter l'obtention ou la vérification des études empiriques de puissance pour les tests d'ajustement. En tant que tel, il peut être considéré comme un outil de calcul de recherche reproductible, car il devient très facile à reproduire (ou détecter les erreurs) des résultats de simulation déjà publiés dans la littérature. En utilisant notre progiciel, il devient facile de concevoir de nouvelles études de simulation. Les valeurs critiques et puissances de nombreuses statistiques de tests sous une grande variété de distributions alternatives sont obtenues très rapidement et avec précision en utilisant un C/C++ et R environnement. On peut même compter sur le progiciel snow de R pour le calcul parallèle, en utilisant un processeur multicœur. Les résultats peuvent être affichés en utilisant des tables latex ou des graphiques spécialisés, qui peuvent être incorporés directement dans vos publications. Ce document donne un aperçu des principaux objectifs et les principes de conception ainsi que les stratégies d'adaptation et d'extension.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La fibrillation auriculaire, l'arythmie la plus fréquente en clinique, affecte 2.3 millions de patients en Amérique du Nord. Pour en étudier les mécanismes et les thérapies potentielles, des modèles animaux de fibrillation auriculaire ont été développés. La cartographie électrique épicardique à haute densité est une technique expérimentale bien établie pour suivre in vivo l'activité des oreillettes en réponse à une stimulation électrique, à du remodelage, à des arythmies ou à une modulation du système nerveux autonome. Dans les régions qui ne sont pas accessibles par cartographie épicardique, la cartographie endocardique sans contact réalisée à l'aide d'un cathéter en forme de ballon pourrait apporter une description plus complète de l'activité auriculaire. Dans cette étude, une expérience chez le chien a été conçue et analysée. Une reconstruction électro-anatomique, une cartographie épicardique (103 électrodes), une cartographie endocardique sans contact (2048 électrodes virtuelles calculées à partir un cathéter en forme de ballon avec 64 canaux) et des enregistrements endocardiques avec contact direct ont été réalisés simultanément. Les systèmes d'enregistrement ont été également simulés dans un modèle mathématique d'une oreillette droite de chien. Dans les simulations et les expériences (après la suppression du nœud atrio-ventriculaire), des cartes d'activation ont été calculées pendant le rythme sinusal. La repolarisation a été évaluée en mesurant l'aire sous l'onde T auriculaire (ATa) qui est un marqueur de gradient de repolarisation. Les résultats montrent un coefficient de corrélation épicardique-endocardique de 0.8 (expérience) and 0.96 (simulation) entre les cartes d'activation, et un coefficient de corrélation de 0.57 (expérience) and 0.92 (simulation) entre les valeurs de ATa. La cartographie endocardique sans contact apparait comme un instrument expérimental utile pour extraire de l'information en dehors des régions couvertes par les plaques d'enregistrement épicardique.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En radiothérapie, la tomodensitométrie (CT) fournit l’information anatomique du patient utile au calcul de dose durant la planification de traitement. Afin de considérer la composition hétérogène des tissus, des techniques de calcul telles que la méthode Monte Carlo sont nécessaires pour calculer la dose de manière exacte. L’importation des images CT dans un tel calcul exige que chaque voxel exprimé en unité Hounsfield (HU) soit converti en une valeur physique telle que la densité électronique (ED). Cette conversion est habituellement effectuée à l’aide d’une courbe d’étalonnage HU-ED. Une anomalie ou artefact qui apparaît dans une image CT avant l’étalonnage est susceptible d’assigner un mauvais tissu à un voxel. Ces erreurs peuvent causer une perte cruciale de fiabilité du calcul de dose. Ce travail vise à attribuer une valeur exacte aux voxels d’images CT afin d’assurer la fiabilité des calculs de dose durant la planification de traitement en radiothérapie. Pour y parvenir, une étude est réalisée sur les artefacts qui sont reproduits par simulation Monte Carlo. Pour réduire le temps de calcul, les simulations sont parallélisées et transposées sur un superordinateur. Une étude de sensibilité des nombres HU en présence d’artefacts est ensuite réalisée par une analyse statistique des histogrammes. À l’origine de nombreux artefacts, le durcissement de faisceau est étudié davantage. Une revue sur l’état de l’art en matière de correction du durcissement de faisceau est présentée suivi d’une démonstration explicite d’une correction empirique.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cette recherche vise à connaître et comprendre la province de Mérida au Venezuela, en analysant l’image que ses habitants construisent de celle-ci à l’aide de photographies de promotion touristique de la province, issues du matériel produit par l’office de tourisme de Mérida, CORMETUR. La recherche est conçue dans une perspective de méthodologie créative. Les participants ont été invités à élaborer –et à commenter- un collage en se servant, à leur guise, des photos fournies pour récréer leur image de leur province. C’est sur la base de ce travail que je cherche à comprendre la manière dont Mérida est perçue par ses habitants. Mon questionnement est théoriquement supporté par la notion d’ « image » ainsi que par le concept de « représentation », entendue dans l’approche constructiviste de Hall (1997), qui me permet ultérieurement d’interpréter les propos des Merideños rencontrés. Dans et à travers les représentations qu’ils construisent, il est possible de comprendre Mérida en tant qu’un « lieu », tel que défendu par Escobar (2001), au sein duquel convergent le « milieu de vie » et le « milieu touristique » qui le composent. De même, il est possible de saisir des enjeux identitaires, tels que Cuche (1996) et Hall (2007) entendent l’ « identité culturelle », dans leurs représentations.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L'un des principaux défis de l'interprétation radiographique réside dans la compréhension de l’anatomie radiographique, laquelle est intrinsèquement liée à la disposition tridimensionnelle des structures anatomiques et à l’impact du positionnement du tube radiogène vis-à-vis de ces structures lors de l'acquisition de l'image. Traditionnellement, des radiographies obtenues selon des projections standard sont employées pour enseigner l'anatomie radiographique en médecine vétérinaire. La tomodensitométrie − ou communément appelée CT (Computed Tomography) − partage plusieurs des caractéristiques de la radiographie en ce qui a trait à la génération des images. À l’aide d'un plug-in spécialement développé (ORS Visual ©), la matrice contenant les images CT est déformée pour reproduire les effets géométriques propres au positionnement du tube et du détecteur vis-à-vis du patient radiographié, tout particulièrement les effets de magnification et de distorsion. Afin d'évaluer le rendu des images simulées, différentes régions corporelles ont été imagées au CT chez deux chiens, un chat et un cheval, avant d'être radiographiées suivant des protocoles d'examens standards. Pour valider le potentiel éducatif des simulations, dix radiologistes certifiés ont comparé à l'aveugle neuf séries d'images radiographiques simulées aux séries radiographiques standard. Plusieurs critères ont été évalués, soient le grade de visualisation des marqueurs anatomiques, le réalisme et la qualité radiographique des images, le positionnement du patient et le potentiel éducatif de celles-ci pour différents niveaux de formation vétérinaire. Les résultats généraux indiquent que les images radiographiques simulées à partir de ce modèle sont suffisamment représentatives de la réalité pour être employées dans l’enseignement de l’anatomie radiographique en médecine vétérinaire.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les données provenant de l'échantillonnage fin d'un processus continu (champ aléatoire) peuvent être représentées sous forme d'images. Un test statistique permettant de détecter une différence entre deux images peut être vu comme un ensemble de tests où chaque pixel est comparé au pixel correspondant de l'autre image. On utilise alors une méthode de contrôle de l'erreur de type I au niveau de l'ensemble de tests, comme la correction de Bonferroni ou le contrôle du taux de faux-positifs (FDR). Des méthodes d'analyse de données ont été développées en imagerie médicale, principalement par Keith Worsley, utilisant la géométrie des champs aléatoires afin de construire un test statistique global sur une image entière. Il s'agit d'utiliser l'espérance de la caractéristique d'Euler de l'ensemble d'excursion du champ aléatoire sous-jacent à l'échantillon au-delà d'un seuil donné, pour déterminer la probabilité que le champ aléatoire dépasse ce même seuil sous l'hypothèse nulle (inférence topologique). Nous exposons quelques notions portant sur les champs aléatoires, en particulier l'isotropie (la fonction de covariance entre deux points du champ dépend seulement de la distance qui les sépare). Nous discutons de deux méthodes pour l'analyse des champs anisotropes. La première consiste à déformer le champ puis à utiliser les volumes intrinsèques et les compacités de la caractéristique d'Euler. La seconde utilise plutôt les courbures de Lipschitz-Killing. Nous faisons ensuite une étude de niveau et de puissance de l'inférence topologique en comparaison avec la correction de Bonferroni. Finalement, nous utilisons l'inférence topologique pour décrire l'évolution du changement climatique sur le territoire du Québec entre 1991 et 2100, en utilisant des données de température simulées et publiées par l'Équipe Simulations climatiques d'Ouranos selon le modèle régional canadien du climat.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le présent mémoire constitue une tentative de circonscrire - par l’étude d’un corpus textuel principalement emprunté à l’œuvre vernaculaire (allemande) de Maître Eckhart de Hochheim (1260-1328) – le rôle joué par certains motifs conceptuels caractérisant la notion moderne de sujet-agent au sein de la pensée de ce philosophe, théologien et prédicateur. Plus précisément, il y est question de déterminer en quoi le « je » (ich) décrit en plusieurs lieux textuels de l’œuvre d’Eckhart présente les caractères d’autonomie et de transparence à soi qui sont l’apanage de la subjectivité telle que la conçoit majoritairement une certaine modernité postcartésienne. Notre argument, qui se déploie sur trois chapitres, adopte sur le corpus faisant l’objet de cette étude et la conceptualité qu’il déploie, trois perspectives différentes – lesquelles perspectives sont respectivement d’ordre ontologique (premier chapitre), existentiel ou éthique (second chapitre) et anthropologique (troisième chapitre). La première approche – ontologique – explicite le sens que donne Eckhart aux notions d’être, de néant, d’intellect et d’image, ainsi que la manière dont elles se définissent dialectiquement en rapport les unes avec les autres. Le second chapitre, dont l’approche est existentielle, expose les applications éthiques des concepts abordés au chapitre précédent, analysant la méthode de détachement prescrite par Eckhart pour parvenir à l’état de béatitude. Le troisième et dernier chapitre cherche, quant à lui, à définir de quelle manière l’homme se définit par rapport à l’union à laquelle l’invite Eckhart, et ce autant sur le plan spécifique que sur le plan individuel.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ce projet analyse le rôle des images – photographies, films, dessins – produites dans le cadre des recherches ethnographiques « interdisciplinaires » menées par l’anthropologue italien Ernesto De Martino en Italie méridionale dans les années 1950. Ces expéditions ont donné lieu à des documents multiformes puisqu’elles regroupent des chercheurs de formations différentes : historien des religions, ethnomusicologue, psychiatre, photographe, et occasionnellement cinéaste. Plus spécifiquement, il s’agit d’étudier le rôle des matériaux visuels dans la recherche sur le tarentisme, rituel de possession observé dans les Pouilles en 1959 par De Martino et son équipe, matériaux dont une partie constitue l’annexe photographique de son œuvre célèbre La terra del rimorso (1961). Nous portons également attention à l’atlas iconographique de son ouvrage sur la lamentation funèbre, Morte e pianto rituale nel mondo antico. Dal lamento pagano al pianto di Maria (1958), fruit d’une étude de terrain dans la région sud italienne de la Lucania (Basilicata). Tout en considérant les relations intermédiales entre les images, le texte, le son et le corps, ce mémoire identifie les rapports dialectiques entre les techniques d’enregistrement et les logiques répétitives, rythmiques et performatives des rituels en question. Chez De Martino, l’image est point de tension en matière de temporalité et de ressemblance : elle suggère une anthropologie de la « survivance » nous permettant de relever plusieurs correspondances avec l'oeuvre de l’historien de l’art Aby Warburg.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En synthèse d'images réalistes, l'intensité finale d'un pixel est calculée en estimant une intégrale de rendu multi-dimensionnelle. Une large portion de la recherche menée dans ce domaine cherche à trouver de nouvelles techniques afin de réduire le coût de calcul du rendu tout en préservant la fidelité et l'exactitude des images résultantes. En tentant de réduire les coûts de calcul afin d'approcher le rendu en temps réel, certains effets réalistes complexes sont souvent laissés de côté ou remplacés par des astuces ingénieuses mais mathématiquement incorrectes. Afin d'accélerer le rendu, plusieurs avenues de travail ont soit adressé directement le calcul de pixels individuels en améliorant les routines d'intégration numérique sous-jacentes; ou ont cherché à amortir le coût par région d'image en utilisant des méthodes adaptatives basées sur des modèles prédictifs du transport de la lumière. L'objectif de ce mémoire, et de l'article résultant, est de se baser sur une méthode de ce dernier type[Durand2005], et de faire progresser la recherche dans le domaine du rendu réaliste adaptatif rapide utilisant une analyse du transport de la lumière basée sur la théorie de Fourier afin de guider et prioriser le lancer de rayons. Nous proposons une approche d'échantillonnage et de reconstruction adaptative pour le rendu de scènes animées illuminées par cartes d'environnement, permettant la reconstruction d'effets tels que les ombres et les réflexions de tous les niveaux fréquentiels, tout en préservant la cohérence temporelle.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cette thèse s’intéresse à la modélisation magnétohydrodynamique des écoulements de fluides conducteurs d’électricité multi-échelles en mettant l’emphase sur deux applications particulières de la physique solaire: la modélisation des mécanismes des variations de l’irradiance via la simulation de la dynamo globale et la reconnexion magnétique. Les variations de l’irradiance sur les périodes des jours, des mois et du cycle solaire de 11 ans sont très bien expliquées par le passage des régions actives à la surface du Soleil. Cependant, l’origine ultime des variations se déroulant sur les périodes décadales et multi-décadales demeure un sujet controversé. En particulier, une certaine école de pensée affirme qu’une partie de ces variations à long-terme doit provenir d’une modulation de la structure thermodynamique globale de l’étoile, et que les seuls effets de surface sont incapables d’expliquer la totalité des fluctuations. Nous présentons une simulation globale de la convection solaire produisant un cycle magnétique similaire en plusieurs aspects à celui du Soleil, dans laquelle le flux thermique convectif varie en phase avec l’ ́energie magnétique. La corrélation positive entre le flux convectif et l’énergie magnétique supporte donc l’idée qu’une modulation de la structure thermodynamique puisse contribuer aux variations à long-terme de l’irradiance. Nous analysons cette simulation dans le but d’identifier le mécanisme physique responsable de la corrélation en question et pour prédire de potentiels effets observationnels résultant de la modulation structurelle. La reconnexion magnétique est au coeur du mécanisme de plusieurs phénomènes de la physique solaire dont les éruptions et les éjections de masse, et pourrait expliquer les températures extrêmes caractérisant la couronne. Une correction aux trajectoires du schéma semi-Lagrangien classique est présentée, qui est basée sur la solution à une équation aux dérivées partielles nonlinéaire du second ordre: l’équation de Monge-Ampère. Celle-ci prévient l’intersection des trajectoires et assure la stabilité numérique des simulations de reconnexion magnétique pour un cas de magnéto-fluide relaxant vers un état d’équilibre.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cette thèse pose la question du positionnement identitaire difficile qui marque la trajectoire littéraire de l’écrivaine belge Suzanne Lilar (1901-1992). Le tiraillement vécu par l’écrivaine entre sa vocation artistique et la nécessité de préserver une image de soi conforme aux normes du milieu social dans lequel elle s’inscrit se reflète dans les scénographies construites par ses œuvres littéraires, mais également dans son discours réflexif et paratextuel ainsi que dans la manière dont son œuvre est accueilli par la presse de l’époque. Le premier volet de cette analyse s’attache à circonscrire la position occupée par Suzanne Lilar sur la scène littéraire belge, dont la proximité avec le centre parisien a toujours entretenu la menace de l’assimilation, et sur la scène de l’écriture féminine. Le deuxième volet de cette thèse porte sur l’analyse des scénographies construites par les textes de fiction et les textes à tendance autobiographique de Suzanne Lilar. Les doubles scénographies que donnent à lire ces œuvres montrent que la démarche esthétique de Suzanne Lilar, sous-tendue par le besoin de légitimation de son entreprise, est basée principalement sur la multiplication des perspectives et des moyens d’expression. Le dédoublement de la scène énonciative des récits, la mise en abyme de la figure auctoriale ainsi que le travail d’autoréécriture témoignent de la nécessité de se positionner dans le champ littéraire, mais également de la méfiance de l’écrivaine envers l’écriture littéraire. Le troisième volet de cette recherche analyse l’éthos et la posture que Lilar construit à l’aide du discours réflexif et paratextuel par lequel elle assoit sa légitimité sur la scène littéraire et sociale. Enfin, la dernière partie de cette thèse capte les échos de l’œuvre de Lilar dans la presse de son temps. L’image de l’auteure construite par les médias permet de placer Lilar au sein de l’institution et du champ littéraire, mais également au sein du groupe social dans lequel elle s’inscrit. L’accueil réservé à l’écrivaine par la presse de son époque semble suivre les fluctuations de la posture construite par l’écrivaine elle-même. Cela confirme l’hypothèse selon laquelle Lilar est une auteure qui a éprouvé de la difficulté à assumer pleinement son rôle. Le positionnement en porte-à-faux – dont témoigne la figure du trompe-l’œil qui définit sa poétique – semble avoir représenté, pour Lilar, la seule manière d’assumer l’incontournable paratopie créatrice.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Pour analyser les images en tomodensitométrie, une méthode stœchiométrique est gé- néralement utilisée. Une courbe relie les unités Hounsfield d’une image à la densité électronique du milieu. La tomodensitométrie à double énergie permet d’obtenir des informations supplémentaires sur ces images. Une méthode stœchiométrique a été dé- veloppée pour permettre de déterminer les valeurs de densité électronique et de numéro atomique effectif à partir d’une paire d’images d’un tomodensitomètre à double énergie. Le but de cette recherche est de développer une nouvelle méthode d’identification de tissus en utilisant ces paramètres extraits en tomodensitométrie à double énergie. Cette nouvelle méthode est comparée avec la méthode standard de tomodensitométrie à simple énergie. Par ailleurs, l’impact dosimétrique de bien identifier un tissu est déterminé. Des simulations Monte Carlo permettent d’utiliser des fantômes numériques dont tous les paramètres sont connus. Les différents fantômes utilisés permettent d’étalonner les méthodes stœchiométriques, de comparer la polyvalence et la robustesse des méthodes d’identification de tissus double énergie et simple énergie, ainsi que de comparer les distributions de dose dans des fantômes uniformes de mêmes densités, mais de compo- sitions différentes. La méthode utilisant la tomodensitométrie à double énergie fournit des valeurs de densi- tés électroniques plus exactes, quelles que soient les conditions étudiées. Cette méthode s’avère également plus robuste aux variations de densité des tissus. L’impact dosimé- trique d’une bonne identification de tissus devient important pour des traitements aux énergies plus faibles, donc aux énergies d’imagerie et de curiethérapie.