170 resultados para Hervé Bouchard
Resumo:
Lors de cette étude, nous avons d’abord localisé les récepteurs CB1 et CB2 sur les structures neuronales. Nous avons montré que les récepteurs CB1 et CB2 sont présents sur les dendrites et les axones et les filopodes. Dans le même ordre d’idée, nous avons localisé le récepteur DCC sur les structures neuronales. Celui-ci est aussi présent sur les dendrites, les axones et les filopodes. Ces résultats suggèrent que le récepteur DCC serait impliqué non seulement dans le processus de synaptogenèse médié par le récepteur CB1, comme cela a été montré dans le laboratoire du professeur Bouchard, mais aussi dans celui, éventuellement, médié par le récepteur CB2. Nous avons ensuite évalué l’effet des ligands du récepteur CB2. Nous n’avons détecté aucun effet clair des agonistes inverses (AM630 et JTE907) et des agonistes (JWH015 et JWH133) quant à la médiation du processus de synaptogenèse en terme de variation de la densité des filopodes et des points de contacts synaptiques. Nous avons obtenu des résultats variables. Ceux-ci furent non reproductibles. Nous avons obtenu des résultats différents des résultats originaux lorsque nous avons requantifié visuellement les mêmes photos à deux reprises Nous avons développé une méthode informatisée de quantification qui nous a permis d’obtenir des résultats reproductibles. Cependant, nous n’avons toujours pas détecté d’effets sur la synaptogenèse médiés par le récepteur CB2. Ces résultats préliminaires ne nous permettent ni d’infirmer, ni de confirmer d’éventuels effets sur la synaptogenèse médiés par le récepteur CB2. Une étude exhaustive serait nécessaire pour le déterminer.
Resumo:
Nous envisageons le cas d'une ressource naturelle renouvelable exploitée en commun par des firmes qui se concurrencent à la fois dans le marché du produit et dans l'exploitation de la ressource. Nous montrons que l'introduction de la moindre différence de coûts entre les firmes peut avoir un effet drastique sur la nature de l' équilibre, à comparer avec le cas de coûts identiques. Pour ce faire, nous prenons comme point de référence un équilibre de Nash markovien parfait qui existe dans le cas de firmes identiques et qui a la propriété que les firmes jouent une stratégie linéaire jusqu'à une borne supérieure endogène du stock et la stratégie correspondant à l' équilibre de Cournot statique au-delà de cette borne. Après avoir montré qu'un équilibre de cette nature n'est pas soutenable avec des coûts asymétriques, nous proposons une caractérisation complète d'un équilibre de Nash markovien parfait au jeu différentiel correspondant à ce cas.
Resumo:
Les concepts d’écosystèmes et de communautés sont centraux aux explications en écologie ainsi qu’à plusieurs débats environnementaux. Cependant, depuis l’introduction de ces concepts, leur statut ontologique est controversé (c'est-à-dire un écosystème a-t-il une existence à part entière au-delà de l’existence de ses parties constituantes?). Alors que certains favorisent une interprétation épistémique de ces concepts, d’autres défendent plutôt que ces unités écologiques fassent partie intégrante du monde naturel. Dans le cadre de ce mémoire, j’argumente que la meilleure manière d’appréhender cette question ontologique est de comprendre que les communautés ainsi que les écosystèmes sont des mécanismes. Plus précisément, je propose que les écosystèmes et les communautés soient des ensembles d’entités et d’activités organisés de manière à exhiber de manière régulière des phénomènes précis. Les entités sont les composantes de ces mécanismes (ex : espèce, niche écologique) alors que les activités sont les relations causales produisant des changements (ex : photosynthèse, prédation). Finalement, les phénomènes que ces mécanismes produisent sont les propriétés émergentes propres au niveau d’organisation des communautés et des écosystèmes (ex. : pH, Biomasse). En utilisant l’approche manipulationniste développée par James Woodward (2003, 2004, 2010), j’argumente qu’il est possible d’identifier les composantes causales des écosystèmes et des communautés ainsi que leurs relations. Puisqu’il est possible de manipuler empiriquement et de manière contrefactuelle de différentes manières les communautés et les écosystèmes (Penn 2003; Swenson et Wilson 2000), je conclus que nous pouvons affirmer de manière robuste (Wimsatt 2007) que ces entités existent réellement.
Resumo:
Le neuroblastome (NB) est la tumeur solide extracranienne la plus fréquente chez le jeune enfant. En dépit de plusieurs avancements thérapeutiques, seulement 60% survivront à long terme. Cette résistance aux traitements est possiblement due, en partie, à la présence des cellules souches cancéreuses (CSC). PARP-1 joue un rôle important dans la chimiorésistance de certaines tumeurs et son inhibition a montré une potentialisation des agents anticancéreux conventionnels. De plus, Bcl-2 est surexprimé dans le NB et son expression accrue contribuerait à la résistance à la chimiothérapie. Le but de notre travail était de déterminer les effets in vitro d’un PARP inhibiteur, AG-014699 (AG), et d’un inhibiteur de Bcl-2, Obatoclax (Obx), in vitro et in vivo, en monothérapie ou en combinaison avec de la Doxorubicine (Doxo) ou du Cisplatin (Cis), deux agents anticancéreux classiquement utilisés dans le traitement du NB. Afin de déterminer l’expression de PARP-1 dans les tumeurs de NB, nous avons analysé une cohorte de 132 tumeurs. Nous avons utilisé le test MTT afin d’évaluer la sensibilité de 6 lignées cellulaires de NB et des CSC à un traitement avec AG seul ou en combinaison avec de la Doxo ou du Cis. Nous avons déterminé l’étendue de la mort cellulaire par Annexin-V et caractérisé les dommages à l’ADN à l’aide d’un marquage γH2aX. De plus, les modulations des voies de signalisation intracellulaire ont été analysées par Western Blot. La sensibilité des cellules à l’Obx a été analysée par MTT sur 6 lignées cellulaires de NB et sa combinaison avec le Cis a également été déterminée dans 2 lignées cellulaires. Le marquage Annexin-V et des combinaisons avec ZVAD-FMK ont aussi été utilisés pour caractériser les effets d’Obx sur l’apoptose. Des expériences in vivo ont également été faites. Nos résultats démontrent que l’expression de PARP-1 est associée aux tumeurs moins agressives. AG n’a peu ou pas effet sur la croissance tumorale et ne potentialise pas significativement les effets de la Doxo ou de Cis. AG combiné à la Doxo semble sensibiliser les CSC dans une lignée cellulaire. L’Annexin-V et le marquage γH2aX ne révèlent pas d’effets synergiques de cette combinaison et les dommages à l’ADN et la mort cellulaire observés sont attribués à la Doxo. Cependant, on observe une augmentation d’apoptose et de bris d’ADN dans une lignée cellulaire (SK-N-FI) lorsqu’AG est utilisé en monothérapie. On observe une surexpression de pAKT et pERK suite à la combinaison Doxo et AG. Les cellules de NB sont sensibles à l’Obx à des concentrations à l’échelle nanomolaire. De plus, Obx active la mort cellulaire par apoptose. Aussi, Obx a un effet synergique avec le Cis in vitro. In vivo, l’Obx diminue significativement la taille tumorale. Nous concluons que l’Obx présente une avenue thérapeutique prometteuse dans le traitement du NB alors que l’utilisation d’AG ne semble pas être aussi encourageante.
Resumo:
La présente thèse avait pour objectif général d’alimenter la réflexion sur les troubles de la mentalisation et, en particulier, sur les phénomènes de pensée concrète. Nous avons d’abord procédé à une récapitulation synthétique des notions avancées par les principaux théoriciens qui ont travaillé sur cette question. Nous avons ainsi repris les travaux de Freud sur la névrose actuelle, de Marty et l’école de Paris sur le fonctionnement opératoire, de Nemiah, Sifneos, Taylor et leurs collègues américains qui ont proposé la notion d’alexithymie, et de Fonagy et Target sur la fonction réflexive. Nous avons ensuite développé l’hypothèse de l’existence d’une position (au sens de perspective et d’organisation expérientielle particulière) concrète, dont le fonctionnement serait antérieur à la position schizoparanoïde décrite par Klein. Notre compréhension s’est articulée autour de la notion de pulsion léthique, à partir d’une réflexion sur la pulsion de mort et des différentes propositions quant à sa nature et son fonctionnement (Freud, Green, Laplanche, Schmidt-Hellerau). Nous soulignons comme caractéristique de la pulsion léthique l’importance du phénomène de néantisation du sujet psychique, qui résulte en une situation d’absence ou de « sommeil endopsychique », au sein de la position concrète. Nous avons tenté d’articuler cette action interne au sein de l’expérience psychique afin de dresser un portrait qui saurait englober la complexité du fonctionnement mental humain, dans sa fluidité comme dans sa diversité. Nous avons exploré les impacts de traumatismes relationnels sur l’environnement interne et sur l’origine des pulsions. Nous avons ensuite illustré chacun des éléments structuraux (expérience, relations d’objet, défenses, angoisses) résultant d’un fonctionnement concret, en illustrant notre propos. Enfin, nous avons discuté de certains enjeux techniques et contre-transférentiels soulevés par le travail psychothérapeutique avec des sujets aux prises avec une pensée concrète.
Resumo:
Selon la théorie de la double hérédité, les processus de transmission sociale des connaissances permettraient aux cultures humaines d'évoluer de manière darwinienne. On parvient à cette conclusion en inférant que, étant donné qu'une analogie profonde peut être établie entre les mécanismes de transmission génétique et ceux de transmission sociale, on devrait non seulement concevoir que les processus cognitifs d'apprentissage social constituent bel et bien un système d'hérédité distinct du système d'hérédité génétique, mais qu’il est aussi légitime, sur la base de cette même analogie, de transférer les concepts explicatifs et outils formels issus de la biologie évolutionnaire et de les adapter à l'étude des cultures humaines en vue de constituer une théorie darwinienne de l'évolution culturelle. Cette analogie de l’hérédité culturelle fait depuis longtemps l'objet de controverses tant au sein de la littérature scientifique que dans les discussions philosophiques. On ne semble pas s'entendre sur la nature même de cette analogie ni non plus sur la force de justification épistémique qu'une telle analogie donnerait à la mise en place d'une théorie darwinienne de l'évolution culturelle. Néanmoins, à travers plus de quarante années de débats, la structure de cette analogie n'a jamais été examinée en détail et on a rarement examiné l'épistémologie des inférences par analogie dans un tel contexte. L'objectif principal de la présente thèse consistera à offrir une première analyse systématique de la nature, de la structure, de la fonction et de la justification épistémique de l'analogie de l'hérédité culturelle, fondement conceptuel de la théorie de la double hérédité. En portant ici une attention particulière à la structure logique de cette analogie, on pourra constater l'ampleur de sa complexité, complexité passant souvent inaperçue dans les critiques de la théorie de la double hérédité. On défendra ici la thèse selon laquelle l'analogie de l'hérédité culturelle est en fait composée de deux analogies constitutives qui, conjointement, ouvrent la voie à la mise en place et à l’organisation d’un programme de recherche visant à mettre au point une théorie darwinienne de l’évolution culturelle.
Resumo:
Le présent mémoire a pour objet de vérifier si (et comment) la sélection naturelle peut être comprise comme mécanisme de l’évolution. En effet, la notion de mécanisme en philosophie des sciences doit encore beaucoup aux développements de l’épistémologie de la physique au cours du 20ième siècle. Or, il n’est pas évident que ces développements soient adéquats au domaine biologique. De plus, même si un intérêt renouvelé pour la notion de mécanisme en biologie a entrainé une abondante littérature épistémologique portant sur la notion de mécanisme, il n’est pas clair que les conceptions offertes sont en mesure de rendre compte de la sélection naturelle. Peter Machamer, Lindley Darden, Carl Craver, Stuart Glennan, James Woodward et William Bechtel -entre autres- ont tous contribué à une analyse des mécanismes en tant qu’alternative à une approche nomologique qui a dominé le 20ième siècle. Il reste à déterminer quelle caractérisation du mécanisme réussit à s’accommoder de la sélection naturelle à la lumière de sa nature probabiliste.
Resumo:
Ce mémoire entend mettre en lumière la solution au problème du mal développée par Philippe le Chancelier dans la Summa de bono (1225-1228). À cet effet, notre analyse se polarise sur la notion du mal qui occupe à la fois le système des transcendantaux et la division du bien créé découlant du principe du souverain bien. La somme est bâtie d’après la primauté de la notion du bien transcendantal, et fut rédigée par opposition avec la doctrine manichéenne des Cathares, en vogue au XIIIe siècle, qui s’appuyait sur la prééminence de deux principes métaphysiques causant le bien et le mal, d’où devaient procéder toutes les choses de la Création. Ceci explique que nous ayons privilégié de seulement examiner les notions du bien et du mal en un sens général, car c’est au stade universel de l’ontologie du bien que l’auteur défait la possibilité du mal de nature, en amont des ramifications du bien créé, déployées, à l’envi, dans les questions de la somme où les réponses sont assignées à des problèmes spécifiques. Nous offrons ici, pour la première fois, une traduction en français d’une série de questions ayant permis de mener à bien ce projet.
Resumo:
Le mouvement Law and Film est pratiquement inexistant dans la culture juridique québécoise. Pourtant, l’approche Law and Film, reliée au mouvement droit et société, gagne en popularité dans le monde juridique anglosaxon. Par ailleurs, si le mouvement prédécesseur Droit et littérature existe depuis bon nombre d’années dans le milieu de la common law, il commence à peine à acquérir ses lettres de noblesse dans la francophonie. Or, les œuvres cinématographiques et télévisuelles, plus que toute autre forme de manifestation culturelle, projettent les images populaires du droit. Elles constituent souvent, pour la plupart des citoyens, le seul contact avec le monde juridique. En ce sens, le cinéma, entendu dans son sens large, façonne l’idée que se font les justiciables du droit. Dans ce contexte, les représentations populaires du droit font office de lieu d’éducation et socialisent à leur insu les citoyens sur le juridique. Par ailleurs, dans les sociétés occidentales, le discours du droit occupe une place de plus en plus importante. Il est donc d’intérêt de mettre en rapport ces deux discours dominants que sont celui du droit et celui du cinéma. Dans la première partie de cet article, nous décrivons généralement les différents types d’études que permet l’analyse du droit par le cinéma afin d’introduire un public non initié à cette approche. Dans la deuxième partie, nous procédons à l’analyse de Rapport minoritaire pour démontrer que le film remet en question l’infaillibilité du système de justice, une brèche produite par l’intervention humaine et la possibilité du doute.
Resumo:
Ce mémoire s'inscrit dans le domaine de la vision par ordinateur. Elle s'intéresse à la calibration de systèmes de caméras stéréoscopiques, à la mise en correspondance caméra-projecteur, à la reconstruction 3D, à l'alignement photométrique de projecteurs, au maillage de nuages de points, ainsi qu'au paramétrage de surfaces. Réalisé dans le cadre du projet LightTwist du laboratoire Vision3D, elle vise à permettre la projection sur grandes surfaces arbitraires à l'aide de plusieurs projecteurs. Ce genre de projection est souvent utilisé en arts technologiques, en théâtre et en projection architecturale. Dans ce mémoire, on procède au calibrage des caméras, suivi d'une reconstruction 3D par morceaux basée sur une méthode active de mise en correspondance, la lumière non structurée. Après un alignement et un maillage automatisés, on dispose d'un modèle 3D complet de la surface de projection. Ce mémoire introduit ensuite une nouvelle approche pour le paramétrage de modèles 3D basée sur le calcul efficace de distances géodésiques sur des maillages. L'usager n'a qu'à délimiter manuellement le contour de la zone de projection sur le modèle. Le paramétrage final est calculé en utilisant les distances obtenues pour chaque point du modèle. Jusqu'à maintenant, les méthodes existante ne permettaient pas de paramétrer des modèles ayant plus d'un million de points.
Resumo:
La sclérodermie est une maladie méconnue par la population en général et également par les professionnels de la santé. La méconnaissance est reliée en partie à l’aspect que la sclérodermie est une maladie rare et reçoit peu d’intérêt de la part des chercheurs, des organismes subventionnaires et des compagnies pharmaceutiques. Ainsi, à l’heure actuelle, peu d’études ont été réalisées pour comprendre la signification de l’expérience de femmes atteintes de sclérodermie et vivant avec une limitation fonctionnelle. La présente étude avait pour but de décrire et comprendre la signification de l’expérience de femmes atteintes de sclérodermie avec une limitation fonctionnelle. L’étudiante-chercheuse a utilisé la perspective infirmière de Watson, la philosophie du caring humain (1988, 1999, 2005, 2006a, 2008). La méthode qualitative de type phénoménologique de Giorgi (1997) a été choisie pour analyser les entrevues. Six femmes ont accepté de participer en partageant leur expérience lors d’un entretien individuel. L’analyse des données a fait émerger trois thèmes, soit : Urgence de vouloir vivre, Déclin de l’autonomie comme source de souffrance et Réappropriation continue du soi. Les résultats permettent de mieux comprendre l’expérience de femmes atteintes de sclérodermie et vivant avec une limitation fonctionnelle. L’incertitude de l’évolution de la sclérodermie dans la vie de ces femmes contribue grandement à l’urgence de vouloir vivre normalement avant qu’il ne soit trop tard. Les résultats évoquent les stratégies adaptatives qu’elles choisissent pour y parvenir, tout en vivant des moments de détresse accompagnés d’espoir. Cette détresse psychologique et émotionnelle est teintée par les conséquences limitantes liées aux symptômes et à l’atteinte à l’image corporelle. Au quotidien, ces femmes se réapproprient un soi qui se renouvèle avec l’évolution de la maladie, la sclérodermie.
Resumo:
pour plus d'informations concernant l'auteure et sa recherche veuillez consulter le http://www.natalieb.ca
Resumo:
Les biphényles polychlorés (BPC) sont des contaminants de l’environnement, omniprésents dans la chaîne alimentaire, qui ont une propension à la bioaccumulation dans le corps humain. Ils traversent la barrière placentaire et sont suspectés d’induire des altérations du développement mental ou moteur chez des enfants exposés aux BPC pendant la vie intrautérine. Ces effets s’expliqueraient notamment par la capacité des BPC à perturber l’homéostasie de la fonction thyroïdienne chez la femme enceinte ou le nouveau-né. Malgré le nombre considérable d’études épidémiologiques réalisées, la relation entre l’exposition prénatale aux BPC et les altérations du développement mental et moteur ou de la fonction thyroïdienne n’a pas encore été clairement établie ; d’une part, différents bioindicateurs de l’exposition ont été employés (différents congénères de BPC mesurés et différentes matrices biologiques ou unités de mesure) limitant la comparaison directe entre les études et, d’autre part, le lien de causalité entre les BPC et les effets ciblés n’a pas été vérifié avec des critères épidémiologiques reconnus. Cette étude a été réalisée afin d’analyser la relation « concentration biologique de BPC – effet » entre l'exposition aux BPC de la mère pendant la grossesse et le développement mental et moteur de l’enfant ainsi que les paramètres de la fonction thyroïdienne chez la femme enceinte et le nouveau-né à partir d’une analyse systématique des études épidémiologiques disponibles en standardisant les données biologiques entre les études. Sur la base de considérations toxicocinétiques et en appliquant des facteurs de conversion établis à partir de la littérature épidémiologique publiée, les concentrations des BPC rapportées dans les différentes études revues ont été standardisées en termes d’équivalent de BPC totaux par kilogramme de lipides dans le plasma maternel (µg PCBMPEQ/kg de lipides). Afin d’analyser la possibilité d’une association causale entre l’exposition aux BPC et les effets d’intérêt, les critères de Hill ont été appliqués systématiquement à l’ensemble des associations « concentrations biologiques standardisées – effet ciblés ». En appliquant cette approche aux données publiées de 20 études épidémiologiques sur la relation entre les BPC et le poids à la naissance, l’exposition prénatale aux BPC, aux niveaux décrits (moyenne < 1920 µg PCBMPEQ/kg de lipides), n’apparaît pas associée de manière significative à un poids à la naissance inférieur à 2500 g dans les populations étudiées. Par ailleurs, en considérant des études menées sur le suivi de neuf cohortes d’enfants, la probabilité qu’une altération cognitive ou motrice cliniquement significative, qui persiste entre la naissance et l’âge scolaire, soit observée à des concentrations de BPC totaux inférieures à 1000 µg PCBMPEQ/kg de lipides semble faible. Aussi, à partir de l’analyse systématique des données de 17 études épidémiologiques, l’exposition aux BPC aux niveaux standardisés décrits (moyenne < 1000 µg PCBMPEQ/kg de lipides) ne semble pas induire de variation des hormones thyroïdiennes ou de TSH en dehors des intervalles physiologiques reconnus chez la femme enceinte et le nouveau-né. Ainsi, la valeur biologique de référence établie à 1000 µg PCBMPEQ/kg de lipides pour prévenir les effets sur le développement devrait aussi prévenir les effets sur le poids à la naissance et la fonction thyroïdienne chez la femme enceinte ou le nouveau-né. Les résultats présentés dans cette thèse fournissent aux autorités de santé publique responsables de l’établissement de directives et des normes de l’information utile à la révision des critères sanitaires visant à protéger des effets des BPC sur le développement de l’enfant et la fonction thyroïdienne chez la femme enceinte et le nouveau-né.
Resumo:
Le fer est un élément essentiel pour les bactéries. Puisqu’elles ne peuvent le synthétiser elles-mêmes, elles utilisent un ou plusieurs systèmes d’acquisition de fer afin de se le procurer dans l’environnement, ou chez l’hôte pour leurs propres métabolismes. Différentes stratégies coexistent chez les bactéries pathogènes dues à la faible concentration de cet élément, autant chez l’hôte que dans l’environnement. Salmonella enterica sérovar Typhi (S. Typhi) est une entérobactérie Gram négative causant une maladie systémique, soit la fièvre typhoïde, qui est spécifique à l’homme. Les mécanismes de pathogènese de ce sérovar sont peu connus jusqu’à ce jour, puisque son tropisme pour l’humain empêche l’utilisation d’un modèle animal adéquat. L’objectif de cette recherche est de caractériser le système d’acquisition de fer chez S. Typhi encodé par le locus iro. Les gènes du locus, iroBCDEN ont fait l’objet de plusieurs recherches chez différents pathogènes, notamment E. coli et Salmonella Typhimurium. Bien qu’un rôle dans la virulence ait été établi pour ce locus chez ces bactéries, très peu d’informations sont disponibles quant au rôle chez S. Typhi, qui emprunte plutôt la voie systémique d’infection. Nous avons évalué le rôle de la synthèse, de l’exportation et de l’importation du sidérophore salmochéline, codé par les gènes iroBCDEN. En inactivant le locus puis par la suite les gènes de façon indépendante par échange allélique, il a été possible d’observer leurs implications in vitro lors d’infections de cellules humaines. Le rôle dans l’adhésion et l’invasion des cellules épithéliales ainsi que le rôle dans la phagocytose et la survie dans les macrophages ont donc été déterminés. De plus, le mécanisme de sécrétion par lequel la salmochéline peut traverser la membrane externe est inconnu à ce jour. La pompe à efflux TolC est responsable de la sécrétion de plusieurs molécules, y compris l’entérobactine, un sidérophore analogue à la salmochéline. Par mutagénèse, nous avons effectué un mutant de délétion tolC afin de vérifier son implication dans l’interaction avec les cellules épithéliales et les macrophages. Afin de caractériser in vitro les mutants, nous avons effectué des courbes de croissance dans différents milieux. La sensibilité au peroxyde d’hydrogène a été vérifiée par la suite, puis dû aux résultats d’infections, la mobilité de la souche ΔtolC a été évaluée. Ces différents tests nous ont permis de mieux comprendre l’implication du locus iro, de ses composantes et de la pompe à efflux TolC lors de l’interaction avec les cellules cibles d’une infection systémique causée par Salmonella Typhi.
Resumo:
En radiothérapie, la tomodensitométrie (CT) fournit l’information anatomique du patient utile au calcul de dose durant la planification de traitement. Afin de considérer la composition hétérogène des tissus, des techniques de calcul telles que la méthode Monte Carlo sont nécessaires pour calculer la dose de manière exacte. L’importation des images CT dans un tel calcul exige que chaque voxel exprimé en unité Hounsfield (HU) soit converti en une valeur physique telle que la densité électronique (ED). Cette conversion est habituellement effectuée à l’aide d’une courbe d’étalonnage HU-ED. Une anomalie ou artefact qui apparaît dans une image CT avant l’étalonnage est susceptible d’assigner un mauvais tissu à un voxel. Ces erreurs peuvent causer une perte cruciale de fiabilité du calcul de dose. Ce travail vise à attribuer une valeur exacte aux voxels d’images CT afin d’assurer la fiabilité des calculs de dose durant la planification de traitement en radiothérapie. Pour y parvenir, une étude est réalisée sur les artefacts qui sont reproduits par simulation Monte Carlo. Pour réduire le temps de calcul, les simulations sont parallélisées et transposées sur un superordinateur. Une étude de sensibilité des nombres HU en présence d’artefacts est ensuite réalisée par une analyse statistique des histogrammes. À l’origine de nombreux artefacts, le durcissement de faisceau est étudié davantage. Une revue sur l’état de l’art en matière de correction du durcissement de faisceau est présentée suivi d’une démonstration explicite d’une correction empirique.