971 resultados para semi-implicit projection method
Resumo:
SiC and AtB 12 have been prepared and their resistivities and Hall voltages measured. The resistivities and Hall voltages were measured by the Van der Pauw's method, using spring loaded tungsten contacts. In this method, the major requirement is to have samples of plane parallel surfaces of arbitrary shape with four small contacts at the circumference. Similar measurements were made with a number of SiC crystals obtained from the Norton Research Corporation (Canada)-Ltd., Carolina Aluminum Co., Exolon Co. and Carborundum Co. It was found that resistivity, carrier concentration and mobility of ions depend on the type of impurity. AtB 12 was prepared from the melt containing At and B in the ratio of 4:1. They formed amber-colour pseudo tetragonal crystals. As the crystals obtained were small for electrical measurements, hot pressed lumps have been used to measure their resistivity.
Resumo:
An abundant literature has demonstrated the benefits of empathy for intergroup relations (e.g., Batson, Chang, Orr, & Rowland, 2002). In addition, empathy has been identified as the mechanism by which various successful prejudice-reduction procedures impact attitudes and behaviour (e.g., Costello & Hodson, 2010). However, standard explicit techniques used in empathy-prejudice research have a number of potential limitations (e.g., resistance; McGregor, 1993). The present project explored an alternative technique, subliminally priming (i.e., outside of awareness) empathy-relevant terms (Study 1), or empathy itself (Study 2). Study 1 compared the effects of exposure to subliminal empathy-relevant primes (e.g., compassion) versus no priming and priming the opposite of empathy (e.g., indifference) on prejudice (i.e., negative attitudes), discrimination (i.e., resource allocation), and helping behaviour (i.e., willingness to empower, directly assist, or expect group change) towards immigrants. Relative to priming the opposite of empathy, participants exposed to primes of empathy-relevant constructs expressed less prejudice and were more willingness to empower immigrants. In addition, the effects were not moderated by individual differences in prejudice-relevant variables (i.e., Disgust Sensitivity, Intergroup Disgust-Sensitivity, Intergroup Anxiety, Social Dominance Orientation, Right-wing Authoritarianism). Study 2 considered a different target category (i.e., Blacks) and attempted to strengthen the effects found by comparing the impact of subliminal empathy primes (relative to no prime or subliminal primes of empathy paired with Blacks) on explicit prejudice towards marginalized groups and Blacks, willingness to help marginalized groups and Blacks, as well as implicit prejudice towards Blacks. In addition, Study 2 considered potential mechanisms for the predicted effects; specifically, general empathy, affective empathy towards Blacks, cognitive empathy towards Blacks, positive mood, and negative mood. Unfortunately, using subliminal empathy primes “backfired”, such that exposure to subliminal empathy primes (relative to no prime) heightened prejudice towards marginalized groups and Blacks, and led to stronger expectations that marginalized groups and Blacks improve their own situation. However, exposure to subliminal primes pairing empathy with Blacks (relative to subliminal empathy primes alone) resulted in less prejudice towards marginalized groups and more willingness to directly assist Blacks, as expected. Interestingly, exposure to subliminal primes of empathy paired with Blacks (vs. empathy alone) resulted in more pro-White bias on the implicit prejudice measure. Study 2 did not find that the potential mediators measured explained the effects found. Overall, the results of the present project do not provide strong support for the use of subliminal empathy primes for improving intergroup relations. In fact, the results of Study 2 suggest that the use of subliminal empathy primes may even backfire. The implications for intergroup research on empathy and priming procedures generally are discussed.
Resumo:
The purpose of this study was to explore elementary educators’ knowledge of moral development, how this knowledge relates to their beliefs and sense of efficacy pertaining to character education practices and the socio-moral reasoning of their students. It was hypothesized that educators’ beliefs and practices related to character education would reflect their pedagogy rather than knowledge of moral development theory. It was further hypothesized that there would be differences in student socio-moral reasoning specifically the beliefs and desires that guide actions would differ based on grade and gender. This mixed-method study employing self-report questionnaires, open response vignettes, and semi-structured educator interviews yielded quantitative and qualitative data. Findings indicated socio-moral reasoning of students differed according to grade (age) and gender. Knowledge of moral development theory was found to vary among participants however some practices employed by educators did align with a social cognitive approach to moral development. Significant variables identified consistently among educator and student participants included, autonomy, social competence, sense of school community, and supportiveness. These variables, in conjunction with a sense of fairness, have been identified elsewhere as foundational to moral development (Nucci, 2009), and intrinsic motivation (Ryan & Deci, 2000) and are relevant to educators working to develop student socio-moral reasoning as an aspect of character.
Resumo:
Objectif: Ce mémoire avait pour objectif d’examiner le contenu cognitif du discours d’agresseurs sexuels d’enfants dans un échantillon d’hommes francophones afin de déterminer s’il est possible de reproduire les catégories de théories implicites telles que proposées par Ward et Keenan (1999). Le but était également d’investiguer la possibilité de retrouver de nouvelles théories implicites. Méthode: 20 entrevues semi-structurées ont été réalisées auprès d’un échantillon d’agresseurs sexuels d’enfants judiciarisés (Centre hospitalier Robert-Giffard, Établissement Montée St-François). À partir de ces entrevues, 2 juges indépendants ont sélectionné le contenu cognitif du discours des agresseurs sexuels. Ce contenu a ensuite été classé thématiquement. Chacun des thèmes émergents a fait l’objet d’une analyse indépendante afin de déterminer si les catégories permettaient une classification optimale des distorsions cognitives. Les juges ont donc repris 3 entrevues et ont recodifié les données afin de comparer la codification. Les données ont été analysées à l’aide de NVivo, un logiciel d’analyse de données qualitatives. Les résultats ont été discutés et comparés aux résultats de Ward et Keenan (1999). Résultats: Les analyses ont permis de trouver 6 théories implicites. Les théories Le droit d’agir à sa guise, Le monde est incontrôlable et L’agression ne cause pas de tort aux enfants étaient identiques à leur version originale. La théorie Le monde est dangereux variait de sa version originale car aucun lien causal n’a été trouvé entre la perception des adultes et des enfants. Deux visions uniques et indépendantes l’une de l’autre ont plutôt été observées. Aussi, les résultats ont montré que les agresseurs partageaient une image dichotomique de la femme. D’ailleurs, ce résultat est consistant avec la théorie implicite Les femmes sont dangereuses de Polaschek et Ward (2004). La théorie Les enfants sont des êtres sexuels variait de sa version originale quant à sa conceptualisation. Les enfants sont des partenaires de vie est une nouvelle théorie implicite n’ayant pas été discutée par Ward et Keenan. Ce résultat est consistant avec les recherches de Wilson (1999) sur la congruence émotionnelle envers les enfants des agresseurs sexuels.
Resumo:
Thèse réalisée en cotutelle avec l'Université Catholique de Louvain (Belgique)
Resumo:
L’annotation en rôles sémantiques est une tâche qui permet d’attribuer des étiquettes de rôles telles que Agent, Patient, Instrument, Lieu, Destination etc. aux différents participants actants ou circonstants (arguments ou adjoints) d’une lexie prédicative. Cette tâche nécessite des ressources lexicales riches ou des corpus importants contenant des phrases annotées manuellement par des linguistes sur lesquels peuvent s’appuyer certaines approches d’automatisation (statistiques ou apprentissage machine). Les travaux antérieurs dans ce domaine ont porté essentiellement sur la langue anglaise qui dispose de ressources riches, telles que PropBank, VerbNet et FrameNet, qui ont servi à alimenter les systèmes d’annotation automatisés. L’annotation dans d’autres langues, pour lesquelles on ne dispose pas d’un corpus annoté manuellement, repose souvent sur le FrameNet anglais. Une ressource telle que FrameNet de l’anglais est plus que nécessaire pour les systèmes d’annotation automatisé et l’annotation manuelle de milliers de phrases par des linguistes est une tâche fastidieuse et exigeante en temps. Nous avons proposé dans cette thèse un système automatique pour aider les linguistes dans cette tâche qui pourraient alors se limiter à la validation des annotations proposées par le système. Dans notre travail, nous ne considérons que les verbes qui sont plus susceptibles que les noms d’être accompagnés par des actants réalisés dans les phrases. Ces verbes concernent les termes de spécialité d’informatique et d’Internet (ex. accéder, configurer, naviguer, télécharger) dont la structure actancielle est enrichie manuellement par des rôles sémantiques. La structure actancielle des lexies verbales est décrite selon les principes de la Lexicologie Explicative et Combinatoire, LEC de Mel’čuk et fait appel partiellement (en ce qui concerne les rôles sémantiques) à la notion de Frame Element tel que décrit dans la théorie Frame Semantics (FS) de Fillmore. Ces deux théories ont ceci de commun qu’elles mènent toutes les deux à la construction de dictionnaires différents de ceux issus des approches traditionnelles. Les lexies verbales d’informatique et d’Internet qui ont été annotées manuellement dans plusieurs contextes constituent notre corpus spécialisé. Notre système qui attribue automatiquement des rôles sémantiques aux actants est basé sur des règles ou classificateurs entraînés sur plus de 2300 contextes. Nous sommes limités à une liste de rôles restreinte car certains rôles dans notre corpus n’ont pas assez d’exemples annotés manuellement. Dans notre système, nous n’avons traité que les rôles Patient, Agent et Destination dont le nombre d’exemple est supérieur à 300. Nous avons crée une classe que nous avons nommé Autre où nous avons rassemblé les autres rôles dont le nombre d’exemples annotés est inférieur à 100. Nous avons subdivisé la tâche d’annotation en sous-tâches : identifier les participants actants et circonstants et attribuer des rôles sémantiques uniquement aux actants qui contribuent au sens de la lexie verbale. Nous avons soumis les phrases de notre corpus à l’analyseur syntaxique Syntex afin d’extraire les informations syntaxiques qui décrivent les différents participants d’une lexie verbale dans une phrase. Ces informations ont servi de traits (features) dans notre modèle d’apprentissage. Nous avons proposé deux techniques pour l’identification des participants : une technique à base de règles où nous avons extrait une trentaine de règles et une autre technique basée sur l’apprentissage machine. Ces mêmes techniques ont été utilisées pour la tâche de distinguer les actants des circonstants. Nous avons proposé pour la tâche d’attribuer des rôles sémantiques aux actants, une méthode de partitionnement (clustering) semi supervisé des instances que nous avons comparée à la méthode de classification de rôles sémantiques. Nous avons utilisé CHAMÉLÉON, un algorithme hiérarchique ascendant.
Resumo:
La présence de distorsions cognitives chez les délinquants sexuels est considérée comme étant intimement liée à l’étiologie et au maintient des comportements sexuels déviants. Selon Ward et Keenan (1999), les distorsions cognitives émergent des théories implicites. Les théories implicites peuvent être définies comme étant un réseau de croyances interreliées que les délinquants ont à propos d’eux et du monde qui les entoure. Polaschek et Ward (2002) ainsi que Polaschek et Gannon (2004) ont postulé qu’il existe 5 théories implicites chez les violeurs : Les femmes sont des objets sexuels; L’excitation sexuelle de l’homme est incontrôlable; Le droit de faire ce que nous voulons; Le monde est dangereux; et Les femmes sont dangereuses. La présente recherche avait pour but d’examiner si les théories implicites chez les violeurs étaient pleinement représentées par les travaux de Polaschek et collègues. Les distorsions cognitives de 21 agresseurs sexuels de femmes adultes ont été analysées à partir de l’analyse de leurs discours. Les analyses indiquent que quatre des cinq théories implicites sont présentes dans notre échantillon. De plus, la théorie implicite Les femmes sont des objets sexuels serait mieux conceptualisée en tant que Les femmes sont des objets. Finalement, et en complément aux résultats des études de Polaschek, notre échantillon présente des cognitions qui normalisent la criminalité, la délinquance, la violence et la sexualité pour atteindre leurs buts; nous conduisant à la création d’une nouvelle théorie implicite : Normalisation du crime. Nos résultats indiquent qu’il y aurait peut-être d’autre
Resumo:
Les théories implicites (TIs) sont des croyances sous-jacentes et interconnectées qui influencent les pensées conscientes et le comportement (Ward, 2000). Elles ont été étudiées chez les délinquants et les délinquantes sexuels, ainsi que chez les délinquants violents, mais pas chez les délinquantes violentes. La recherche montre que les cognitions des délinquants violents peuvent être organisées en quatre TIs: 1) Battre ou être battu, 2) Je suis la loi, 3) La violence est normale, et 4) Je perds le contrôle (Polaschek, Calvert & Gannon , 2008). L’objectif de la présente étude était de déterminer quelles sont les TIs des délinquantes violentes afin de mieux comprendre leur comportement. Des entrevues semi structurées ont été menées avec 21 femmes violentes incarcérées. Dans l'analyse, les cognitions des participantes ont été extraites en utilisant l’analyse du discours (Angers, 2005). Ces cognitions ont ensuite été plus profondément analysées pour en ressortir les TIs en suivant la méthode de la théorisation ancrée (Strauss & Corbin, 1990). Les résultats suggèrent qu’il existe six théories implicites liées au comportement violent des femmes. Deux d'entre elles sont neutres, car aussi retrouvées chez les hommes: 1) la violence est normale et 2) je perds le contrôle. Les quatre autres sont sexo-spécifiques: 3) ceux qui agissent injustement méritent d'être battus, 4) j'ai besoin de me protéger et protéger les autres, 5) je ne suis pas violente, et 6) ma vie est trop difficile. En outre, les résultats suggèrent qu'il existe deux groupes distincts d’agresseures en ce qui concerne les cognitions: les « antisociales » et les « classiques ». Les implications et explications théoriques de nos résultats seront discutées.
Resumo:
Plusieurs aminoglycosides font partie d’une famille d’antibiotiques à large spectre d’action. Les aminoglycosides ayant une activité antibiotique viennent interférer dans la synthèse protéique effectuée par les bactéries. Les protéines mal codées entraineront la mort cellulaire. Au fil des années, de nombreux cas de résistance ont émergé après une utilisation soutenue des aminoglycosides. De nombreux aminoglycosides semi-synthétiques ont été synthétisés avec comme objectif de restaurer leur activité antimicrobienne. Parmi les modifications ayant connu du succès, notons la didésoxygénation d’un diol et l’introduction de la chaine latérale HABA. Des études précédentes ont montré l’efficacité de ces modifications sur les aminoglycosides. Les présents travaux portent sur l’installation de la chaine latérale HABA et la didésoxygénation d’un diol sur la paromomycine et la néomycine. La didésoxygénation sélective des diols a été effectuée en utilisant la méthodologie développée par Garegg et Samuelsson, une variation de la réaction de Tipson-Cohen. Cette méthode a permis l’obtention du motif didésoxygéné sur les cycles A et D dans des rendements jamais égalés pour ce motif synthétique. La chaîne latérale a été introduite en tirant profit de la réactivité et de la sélectivité d’un carbamate cyclique. Ces méthodes combinées ont permis la synthèse efficace de nombreux analogues semi-synthétiques nouveaux. La 3',4'-didéhydro-N-1-HABA-néomycine et la 3',4',3''',4'''-tétradésoxy-N-1-HABA-néomycine montrent une activité impressionnante contre des souches de bactéries résistantes aux aminoglycosides. Des tests de toxicité effectués en collaboration avec Achaogen Inc. ont démontré que ces composés sont relativement toxiques sur les cellules rénales de type H2K, ce qui réduit de façon importante leur index thérapeutique. Afin d’abaisser la toxicité des composés, la relation entre toxicité et basicité a été explorée. Des substitutions de l’amine en 6''' ont été effectuées afin d’abaisser la basicité de l’amine. Les résultats de toxicité et d’activité antimicrobienne démontrent une corrélation importante entre la basicité des amines et la toxicité/activité des aminoglycosides antibiotiques. L’effet d’une modulation du pKa a aussi été exploré en installant des chaines fluorées sur l’amine en 6''' de la paromomycine et de la néomycine. Une séquence synthtétique pour isoler l’amine en 6''' de la néomycine a aussi été développée.
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
On retrouve dans la nature un nombre impressionnant de matériaux semi-transparents tels le marbre, le jade ou la peau, ainsi que plusieurs liquides comme le lait ou les jus. Que ce soit pour le domaine cinématographique ou le divertissement interactif, l'intérêt d'obtenir une image de synthèse de ce type de matériau demeure toujours très important. Bien que plusieurs méthodes arrivent à simuler la diffusion de la lumière de manière convaincante a l'intérieur de matériaux semi-transparents, peu d'entre elles y arrivent de manière interactive. Ce mémoire présente une nouvelle méthode de diffusion de la lumière à l'intérieur d'objets semi-transparents hétérogènes en temps réel. Le coeur de la méthode repose sur une discrétisation du modèle géométrique sous forme de voxels, ceux-ci étant utilisés comme simplification du domaine de diffusion. Notre technique repose sur la résolution de l'équation de diffusion à l'aide de méthodes itératives permettant d'obtenir une simulation rapide et efficace. Notre méthode se démarque principalement par son exécution complètement dynamique ne nécessitant aucun pré-calcul et permettant une déformation complète de la géométrie.
Resumo:
Ce mémoire s'inscrit dans le domaine de la vision par ordinateur. Elle s'intéresse à la calibration de systèmes de caméras stéréoscopiques, à la mise en correspondance caméra-projecteur, à la reconstruction 3D, à l'alignement photométrique de projecteurs, au maillage de nuages de points, ainsi qu'au paramétrage de surfaces. Réalisé dans le cadre du projet LightTwist du laboratoire Vision3D, elle vise à permettre la projection sur grandes surfaces arbitraires à l'aide de plusieurs projecteurs. Ce genre de projection est souvent utilisé en arts technologiques, en théâtre et en projection architecturale. Dans ce mémoire, on procède au calibrage des caméras, suivi d'une reconstruction 3D par morceaux basée sur une méthode active de mise en correspondance, la lumière non structurée. Après un alignement et un maillage automatisés, on dispose d'un modèle 3D complet de la surface de projection. Ce mémoire introduit ensuite une nouvelle approche pour le paramétrage de modèles 3D basée sur le calcul efficace de distances géodésiques sur des maillages. L'usager n'a qu'à délimiter manuellement le contour de la zone de projection sur le modèle. Le paramétrage final est calculé en utilisant les distances obtenues pour chaque point du modèle. Jusqu'à maintenant, les méthodes existante ne permettaient pas de paramétrer des modèles ayant plus d'un million de points.
Resumo:
La modélisation de l’expérience de l’utilisateur dans les Interactions Homme-Machine est un enjeu important pour la conception et le développement des systèmes adaptatifs intelligents. Dans ce contexte, une attention particulière est portée sur les réactions émotionnelles de l’utilisateur, car elles ont une influence capitale sur ses aptitudes cognitives, comme la perception et la prise de décision. La modélisation des émotions est particulièrement pertinente pour les Systèmes Tutoriels Émotionnellement Intelligents (STEI). Ces systèmes cherchent à identifier les émotions de l’apprenant lors des sessions d’apprentissage, et à optimiser son expérience d’interaction en recourant à diverses stratégies d’interventions. Cette thèse vise à améliorer les méthodes de modélisation des émotions et les stratégies émotionnelles utilisées actuellement par les STEI pour agir sur les émotions de l’apprenant. Plus précisément, notre premier objectif a été de proposer une nouvelle méthode pour détecter l’état émotionnel de l’apprenant, en utilisant différentes sources d’informations qui permettent de mesurer les émotions de façon précise, tout en tenant compte des variables individuelles qui peuvent avoir un impact sur la manifestation des émotions. Pour ce faire, nous avons développé une approche multimodale combinant plusieurs mesures physiologiques (activité cérébrale, réactions galvaniques et rythme cardiaque) avec des variables individuelles, pour détecter une émotion très fréquemment observée lors des sessions d’apprentissage, à savoir l’incertitude. Dans un premier lieu, nous avons identifié les indicateurs physiologiques clés qui sont associés à cet état, ainsi que les caractéristiques individuelles qui contribuent à sa manifestation. Puis, nous avons développé des modèles prédictifs permettant de détecter automatiquement cet état à partir des différentes variables analysées, à travers l’entrainement d’algorithmes d’apprentissage machine. Notre deuxième objectif a été de proposer une approche unifiée pour reconnaître simultanément une combinaison de plusieurs émotions, et évaluer explicitement l’impact de ces émotions sur l’expérience d’interaction de l’apprenant. Pour cela, nous avons développé une plateforme hiérarchique, probabiliste et dynamique permettant de suivre les changements émotionnels de l'apprenant au fil du temps, et d’inférer automatiquement la tendance générale qui caractérise son expérience d’interaction à savoir : l’immersion, le blocage ou le décrochage. L’immersion correspond à une expérience optimale : un état dans lequel l'apprenant est complètement concentré et impliqué dans l’activité d’apprentissage. L’état de blocage correspond à une tendance d’interaction non optimale où l'apprenant a de la difficulté à se concentrer. Finalement, le décrochage correspond à un état extrêmement défavorable où l’apprenant n’est plus du tout impliqué dans l’activité d’apprentissage. La plateforme proposée intègre trois modalités de variables diagnostiques permettant d’évaluer l’expérience de l’apprenant à savoir : des variables physiologiques, des variables comportementales, et des mesures de performance, en combinaison avec des variables prédictives qui représentent le contexte courant de l’interaction et les caractéristiques personnelles de l'apprenant. Une étude a été réalisée pour valider notre approche à travers un protocole expérimental permettant de provoquer délibérément les trois tendances ciblées durant l’interaction des apprenants avec différents environnements d’apprentissage. Enfin, notre troisième objectif a été de proposer de nouvelles stratégies pour influencer positivement l’état émotionnel de l’apprenant, sans interrompre la dynamique de la session d’apprentissage. Nous avons à cette fin introduit le concept de stratégies émotionnelles implicites : une nouvelle approche pour agir subtilement sur les émotions de l’apprenant, dans le but d’améliorer son expérience d’apprentissage. Ces stratégies utilisent la perception subliminale, et plus précisément une technique connue sous le nom d’amorçage affectif. Cette technique permet de solliciter inconsciemment les émotions de l’apprenant, à travers la projection d’amorces comportant certaines connotations affectives. Nous avons mis en œuvre une stratégie émotionnelle implicite utilisant une forme particulière d’amorçage affectif à savoir : le conditionnement évaluatif, qui est destiné à améliorer de façon inconsciente l’estime de soi. Une étude expérimentale a été réalisée afin d’évaluer l’impact de cette stratégie sur les réactions émotionnelles et les performances des apprenants.
Resumo:
Depuis quelques années, les applications intégrant un module de dialogues avancés sont en plein essor. En revanche, le processus d’universalisation de ces systèmes est rapidement décourageant : ceux-ci étant naturellement dépendants de la langue pour laquelle ils ont été conçus, chaque nouveau langage à intégrer requiert son propre temps de développement. Un constat qui ne s’améliore pas en considérant que la qualité est souvent tributaire de la taille de l’ensemble d’entraînement. Ce projet cherche donc à accélérer le processus. Il rend compte de différentes méthodes permettant de générer des versions polyglottes d’un premier système fonctionnel, à l’aide de la traduction statistique. L’information afférente aux données sources est projetée afin de générer des données cibles parentes, qui diminuent d’autant le temps de développement subséquent. En ce sens, plusieurs approches ont été expérimentées et analysées. Notamment, une méthode qui regroupe les données avant de réordonner les différents candidats de traduction permet d’obtenir de bons résultats.
Resumo:
Cette thèse porte sur la reconstruction active de modèles 3D à l’aide d’une caméra et d’un projecteur. Les méthodes de reconstruction standards utilisent des motifs de lumière codée qui ont leurs forces et leurs faiblesses. Nous introduisons de nouveaux motifs basés sur la lumière non structurée afin de pallier aux manques des méthodes existantes. Les travaux présentés s’articulent autour de trois axes : la robustesse, la précision et finalement la comparaison des patrons de lumière non structurée aux autres méthodes. Les patrons de lumière non structurée se différencient en premier lieu par leur robustesse aux interréflexions et aux discontinuités de profondeur. Ils sont conçus de sorte à homogénéiser la quantité d’illumination indirecte causée par la projection sur des surfaces difficiles. En contrepartie, la mise en correspondance des images projetées et capturées est plus complexe qu’avec les méthodes dites structurées. Une méthode d’appariement probabiliste et efficace est proposée afin de résoudre ce problème. Un autre aspect important des reconstructions basées sur la lumière non structurée est la capacité de retrouver des correspondances sous-pixels, c’est-à-dire à un niveau de précision plus fin que le pixel. Nous présentons une méthode de génération de code de très grande longueur à partir des motifs de lumière non structurée. Ces codes ont l’avantage double de permettre l’extraction de correspondances plus précises tout en requérant l’utilisation de moins d’images. Cette contribution place notre méthode parmi les meilleures au niveau de la précision tout en garantissant une très bonne robustesse. Finalement, la dernière partie de cette thèse s’intéresse à la comparaison des méthodes existantes, en particulier sur la relation entre la quantité d’images projetées et la qualité de la reconstruction. Bien que certaines méthodes nécessitent un nombre constant d’images, d’autres, comme la nôtre, peuvent se contenter d’en utiliser moins aux dépens d’une qualité moindre. Nous proposons une méthode simple pour établir une correspondance optimale pouvant servir de référence à des fins de comparaison. Enfin, nous présentons des méthodes hybrides qui donnent de très bons résultats avec peu d’images.