920 resultados para Image Based Visual Servoing
Resumo:
Naïvement perçu, le processus d’évolution est une succession d’événements de duplication et de mutations graduelles dans le génome qui mènent à des changements dans les fonctions et les interactions du protéome. La famille des hydrolases de guanosine triphosphate (GTPases) similaire à Ras constitue un bon modèle de travail afin de comprendre ce phénomène fondamental, car cette famille de protéines contient un nombre limité d’éléments qui diffèrent en fonctionnalité et en interactions. Globalement, nous désirons comprendre comment les mutations singulières au niveau des GTPases affectent la morphologie des cellules ainsi que leur degré d’impact sur les populations asynchrones. Mon travail de maîtrise vise à classifier de manière significative différents phénotypes de la levure Saccaromyces cerevisiae via l’analyse de plusieurs critères morphologiques de souches exprimant des GTPases mutées et natives. Notre approche à base de microscopie et d’analyses bioinformatique des images DIC (microscopie d’interférence différentielle de contraste) permet de distinguer les phénotypes propres aux cellules natives et aux mutants. L’emploi de cette méthode a permis une détection automatisée et une caractérisation des phénotypes mutants associés à la sur-expression de GTPases constitutivement actives. Les mutants de GTPases constitutivement actifs Cdc42 Q61L, Rho5 Q91H, Ras1 Q68L et Rsr1 G12V ont été analysés avec succès. En effet, l’implémentation de différents algorithmes de partitionnement, permet d’analyser des données qui combinent les mesures morphologiques de population native et mutantes. Nos résultats démontrent que l’algorithme Fuzzy C-Means performe un partitionnement efficace des cellules natives ou mutantes, où les différents types de cellules sont classifiés en fonction de plusieurs facteurs de formes cellulaires obtenus à partir des images DIC. Cette analyse démontre que les mutations Cdc42 Q61L, Rho5 Q91H, Ras1 Q68L et Rsr1 G12V induisent respectivement des phénotypes amorphe, allongé, rond et large qui sont représentés par des vecteurs de facteurs de forme distincts. Ces distinctions sont observées avec différentes proportions (morphologie mutante / morphologie native) dans les populations de mutants. Le développement de nouvelles méthodes automatisées d’analyse morphologique des cellules natives et mutantes s’avère extrêmement utile pour l’étude de la famille des GTPases ainsi que des résidus spécifiques qui dictent leurs fonctions et réseau d’interaction. Nous pouvons maintenant envisager de produire des mutants de GTPases qui inversent leur fonction en ciblant des résidus divergents. La substitution fonctionnelle est ensuite détectée au niveau morphologique grâce à notre nouvelle stratégie quantitative. Ce type d’analyse peut également être transposé à d’autres familles de protéines et contribuer de manière significative au domaine de la biologie évolutive.
Resumo:
Ce mémoire de maîtrise étudie la mise en scène de la folie des femmes au cinéma. Notre hypothèse est qu’il est possible d’appréhender la folie en tant que forme esthétique et ainsi, d’isoler un répertoire de figures essentielles à la mise en scène et à la mise en jeu des corps féminins. En partant d’une définition « fuyante » de la folie, il s’agit de dégager la folle de la pathologie et d’examiner plutôt comment les images peuvent se faire écho et rejouer dans l’Histoire une série de « procédés figuratifs » à l’écran. Nous nous intéressons d’abord au grand bassin imaginaire dans lequel se construit l’iconographie de la folie des femmes au cinéma. Nous montrons ainsi comment la mémoire visuelle de la folie est tirée de tous les côtés par un réseau d’images plus anciennes et soulignons l’importance du spectaculaire dans ce bassin esthétique. Ensuite, nous étudions le mouvement des corps fous au cinéma. Nous démontrons comment la mise en scène de la folie donne accès à un répertoire de formes d’expressions reconnaissables : syncope, rire hystérique, jouissance, chutes, redressements, tics, contractures, etc. Finalement, en nous appuyant sur les notions d’emprunt et de contagion, nous démontrons l’importance du geste dans la compréhension des corps délirants au cinéma.
Resumo:
Les stimuli naturels projetés sur nos rétines nous fournissent de l’information visuelle riche. Cette information varie le long de propriétés de « bas niveau » telles que la luminance, le contraste, et les fréquences spatiales. Alors qu’une partie de cette information atteint notre conscience, une autre partie est traitée dans le cerveau sans que nous en soyons conscients. Les propriétés de l’information influençant l’activité cérébrale et le comportement de manière consciente versus non-consciente demeurent toutefois peu connues. Cette question a été examinée dans les deux derniers articles de la présente thèse, en exploitant les techniques psychophysiques développées dans les deux premiers articles. Le premier article présente la boîte à outils SHINE (spectrum, histogram, and intensity normalization and equalization), développée afin de permettre le contrôle des propriétés de bas niveau de l'image dans MATLAB. Le deuxième article décrit et valide la technique dite des bulles fréquentielles, qui a été utilisée tout au long des études de cette thèse pour révéler les fréquences spatiales utilisées dans diverses tâches de perception des visages. Cette technique offre les avantages d’une haute résolution au niveau des fréquences spatiales ainsi que d’un faible biais expérimental. Le troisième et le quatrième article portent sur le traitement des fréquences spatiales en fonction de la conscience. Dans le premier cas, la méthode des bulles fréquentielles a été utilisée avec l'amorçage par répétition masquée dans le but d’identifier les fréquences spatiales corrélées avec les réponses comportementales des observateurs lors de la perception du genre de visages présentés de façon consciente versus non-consciente. Les résultats montrent que les mêmes fréquences spatiales influencent de façon significative les temps de réponse dans les deux conditions de conscience, mais dans des sens opposés. Dans le dernier article, la méthode des bulles fréquentielles a été combinée à des enregistrements intracrâniens et au Continuous Flash Suppression (Tsuchiya & Koch, 2005), dans le but de cartographier les fréquences spatiales qui modulent l'activation de structures spécifiques du cerveau (l'insula et l'amygdale) lors de la perception consciente versus non-consciente des expressions faciales émotionnelles. Dans les deux régions, les résultats montrent que la perception non-consciente s'effectue plus rapidement et s’appuie davantage sur les basses fréquences spatiales que la perception consciente. La contribution de cette thèse est donc double. D’une part, des contributions méthodologiques à la recherche en perception visuelle sont apportées par l'introduction de la boîte à outils SHINE ainsi que de la technique des bulles fréquentielles. D’autre part, des indications sur les « corrélats de la conscience » sont fournies à l’aide de deux approches différentes.
Resumo:
En observant le foisonnement de métaphores de la lumière et de la vision dans l’œuvre de Reinaldo Arenas – l’accentuation de la couleur, l’éblouissement, la brûlure et le dédoublement – cette thèse s’interroge sur la vision de l’écriture formulée dans et à partir de ces images, et sur les implications de cette vision. Constatant à travers cette réflexion l’inscription à même le langage des images de la lumière et de la vision – de la réflexion à la clarté, en passant par l’image et la lucidité – cette thèse délibère, à travers l’œuvre de Reinaldo Arenas et celle de Jorge Luis Borges, sur une définition de l’écriture comme intensité, notion et image empruntées au registre du sensible par le détour de la physique. Le premier chapitre s’intéresse à la couleur comme phénomène de la vision, du sensible, de l’affect et de la nuance, ainsi qu’à la métaphore de la cécité abordée par Borges et par Paul de Man comme phénomène de la lecture, points d’entrée à une réflexion sur l’écriture. Le second chapitre aborde la notion d’éblouissement en tant qu’intensité de la lumière et temporalité de la prise de conscience lucide, définissant ainsi une vision du temps et les affinités entre la temporalité de l’écriture et celle de l’image poétique. Le troisième chapitre, réitérant la question de la relation au temps – historique et narratif –, réaffirme les inflexions du langage en fonction de la lumière, c’est-à-dire la relation entre l’aspect « lumineux » du langage, l’intensité de la lumière et l’intensité de l’écriture (entendue comme écriture littéraire), en explorant le seuil (la destruction par le feu) mis en lumière par l’image du phénix, figure mythique et littéraire de la transformation des images, selon la définition de l’imagination proposée par Gaston Bachelard. Enfin, la double conclusion (une conclusion en deux parties, ou deux conclusions réfléchies l’une dans l’autre), relie les images poétiques de la lumière évoquées et leurs implications en examinant la portée d’une vision de l’écriture comme intensité. Cette idée est élaborée à travers l’image finale du double, figure littéraire constitutive et omniprésente à la fois chez Arenas et chez Borges, image non seulement de la relation entre le personnage et son double (qui relève de l’hallucination ou de l’imagination, images, encore une fois, de la vision), mais aussi de la relation entre l’auteur et le texte, le lecteur et le texte, l’écriture et le temps. La double conclusion vise le dédoublement et redoublement comme figures de l’intensité dans l’écriture. Le lien entre la vision métaphorique et l’écriture comme intensité est donc articulé par la métaphore, telle qu’entendue par Borges, élargie à l’image poétique dans la perspective de Gaston Bachelard ; elle s’appuie sur la vision de la littérature pensée et écrite par Arenas. La réflexion est double : dans le texte et sur le texte, au plan poétique et au plan d’une réflexion sur l’écriture d’Arenas ; sur l’écriture et, implicitement, sur la littérature.
Resumo:
Le Coran et la Sunna (la tradition du prophète Muḥammad) relatée dans les aḥâdîth (les traditions orales du Prophète) représentent la source éternelle d’inspiration et de savoir à laquelle les Musulmans se réfèrent pour agir, réagir et interagir. Par le fait même, tout au long de l’histoire musulmane, ces sources sacrées ont été à la base des relations des Musulmans avec autrui, incluant les Chrétiens. Les trois éléments majeurs de différenciation entre l’islam et le christianisme sont : la nature divine de Jésus, la trinité ainsi que la crucifixion et la mort de Jésus sur la croix. La position tranchée du Coran quant aux deux premiers points ne laisse place à aucun débat académique. Cependant, l’ambiguïté du texte coranique quant à la crucifixion de Jésus et sa mort a favorisé de nombreux débats entre mufassirûn (les exégètes du Coran). Cette thèse est une analyse textuelle des deux passages coraniques qui traitent de cette troisième différence. Pour cette étude textuelle et intertextuelle, les tafâsîr (interprétations du Coran) de huit mufassirûn appartenant à différentes madhâhib (écoles d’interprétation) et périodes de l’histoire des relations musulmanes-chrétiennes sont utilisés en combinaison avec certaines approches et méthodes récentes telles que : historico-critique et critique rédactionnelle. De plus, trois nouvelles théories développées dans la thèse enrichissent les outils herméneutiques de la recherche : la « théorie des cinq couches de sens », la « théorie des messages coraniques doubles » et la « théorie de la nature humaine tripartite ». À la lumière de ces théories et méthodes, il apparaît que l’ambiguïté coranique au sujet de la crucifixion et de la mort de Jésus est une invitation claire de la part du Coran incitant les Musulmans et les Chrétiens à vivre avec cette ambiguïté insoluble. La conclusion de cette thèse contribue directement à de meilleures relations musulmanes-chrétiennes, renforçant l’appel coranique (Coran 3:64, 103) à ces deux communautés leurs demandant de se cramponner aux points communs majeurs, d’intégrer leurs différences mineures et de consacrer leurs énergies pour une vie harmonieuse entre eux et laisser le reste dans les mains du Dieu qu’ils ont en commun.
Resumo:
L’optogénétique est une technique prometteuse pour la modulation de l’activité neuronale. Par l’insertion d’une opsine microbienne dans la membrane plasmique de neurones et par son activation photonique, il devient possible de réguler l’activité neuronale avec une grande résolution temporelle et spatiale. Beaucoup de travaux ont été faits pour caractériser et synthétiser de nouvelles opsines. Ainsi, plusieurs variétés d’opsines sont désormais disponibles, chacune présentant des cinétiques et sensibilités à des longueurs d’onde différentes. En effet, il existe des constructions optogénétiques permettant de moduler à la hausse ou à la baisse l’activité neuronale, telles la channelrhodopsine-2 (ChR2) ou la halorhodopsine (NpHR), respectivement. Les promesses de cette technologie incluent le potentiel de stimuler une région restreinte du cerveau, et ce, de façon réversible. Toutefois, peu d’applications en ce sens ont été réalisées, cette technique étant limitée par l’absorption et la diffusion de la lumière dans les tissus. Ce mémoire présente la conception d’une fibre optique illuminant à un angle de 90° à sa sortie, capable de guider la lumière à des structures bien précises dans le système nerveux central. Nous avons conduit des tests in vivo dans le système visuel de souris transgéniques exprimant la ChR2 dans l’ensemble du système nerveux central. Dans le système visuel, les signaux rétiniens sont conduits au corps genouillé latéral (CGL) avant d’être relayés au cortex visuel primaire (V1). Pour valider la capacité de mon montage optogénétique à stimuler spécifiquement une sous-population de neurones, nous avons tiré profit de l’organisation rétinotopique existant dans le système visuel. En stimulant optogénétiquement le CGL et en tournant la fibre optique sur elle-même à l’aide d’un moteur, il devient possible de stimuler séquentiellement différentes portions de cette structure thalamique et conséquemment, différentes représentations du champ visuel. L’activation des projections thalamiques sera enregistrée au niveau de l’aire V1 à l’aide de l’imagerie optique intrinsèque, une technique qui permet d’imager les variations de la concentration d’oxygène et du volume sanguin dans le tissu neuronal, sur une grande surface corticale. Comme l’organisation rétinotopique est maintenue au niveau de l’aire V1, l’espace activé au niveau du cortex révèlera l’étendue spatiale de notre stimulation optogénétique du CGL. Les expériences in vivo démontrèrent qu’en déplaçant la fibre optique dans le CGL, il nous était possible de stimuler différents sous- ensembles de neurones dans cette structure thalamique. En conclusion, cette étude montre notre capacité à développer un système à base de fibre optique capable de stimuler optogénétiquement une population de neurone avec une grande précision spatiale.
Resumo:
Cette recherche vise à connaître et comprendre la province de Mérida au Venezuela, en analysant l’image que ses habitants construisent de celle-ci à l’aide de photographies de promotion touristique de la province, issues du matériel produit par l’office de tourisme de Mérida, CORMETUR. La recherche est conçue dans une perspective de méthodologie créative. Les participants ont été invités à élaborer –et à commenter- un collage en se servant, à leur guise, des photos fournies pour récréer leur image de leur province. C’est sur la base de ce travail que je cherche à comprendre la manière dont Mérida est perçue par ses habitants. Mon questionnement est théoriquement supporté par la notion d’ « image » ainsi que par le concept de « représentation », entendue dans l’approche constructiviste de Hall (1997), qui me permet ultérieurement d’interpréter les propos des Merideños rencontrés. Dans et à travers les représentations qu’ils construisent, il est possible de comprendre Mérida en tant qu’un « lieu », tel que défendu par Escobar (2001), au sein duquel convergent le « milieu de vie » et le « milieu touristique » qui le composent. De même, il est possible de saisir des enjeux identitaires, tels que Cuche (1996) et Hall (2007) entendent l’ « identité culturelle », dans leurs représentations.
Resumo:
Le syndrome du X fragile (SXF) est la première cause héréditaire de déficience intellectuelle et également la première cause monogénique d’autisme. Le SXF est causé par l'expansion de la répétition du nucléotide CGG sur le gène FMR1, ce qui empêche l’expression de la protéine FMRP. L’absence du FMRP mène à une altération du développement structurel et fonctionnel de la synapse, ce qui empêche la maturation des synapses induite par l’activité et l’élagage synaptique, qui sont essentiels pour le développement cérébral et cognitif. Nous avons investigué les potentiels reliés aux événements (PRE) évoqués par des stimulations fondamentales auditives et visuelles dans douze adolescents et jeunes adultes (10-22) atteints du SXF, ainsi que des participants contrôles appariés en âge chronologique et développemental. Les résultats indiquent un profil des PRE altéré, notamment l’augmentation de l’amplitude de N1 auditive, par rapport aux deux groupes contrôle, ainsi que l’augmentation des amplitudes de P2 et N2 auditifs et de la latence de N2 auditif. Chez les patients SXF, le traitement sensoriel semble être davantage perturbé qu’immature. En outre, la modalité auditive semble être plus perturbée que la modalité visuelle. En combinaison avec des résultats anatomique du cerveau, des mécanismes biochimiques et du comportement, nos résultats suggèrent une hyperexcitabilité du système nerveux dans le SXF.
Resumo:
Ce projet analyse le rôle des images – photographies, films, dessins – produites dans le cadre des recherches ethnographiques « interdisciplinaires » menées par l’anthropologue italien Ernesto De Martino en Italie méridionale dans les années 1950. Ces expéditions ont donné lieu à des documents multiformes puisqu’elles regroupent des chercheurs de formations différentes : historien des religions, ethnomusicologue, psychiatre, photographe, et occasionnellement cinéaste. Plus spécifiquement, il s’agit d’étudier le rôle des matériaux visuels dans la recherche sur le tarentisme, rituel de possession observé dans les Pouilles en 1959 par De Martino et son équipe, matériaux dont une partie constitue l’annexe photographique de son œuvre célèbre La terra del rimorso (1961). Nous portons également attention à l’atlas iconographique de son ouvrage sur la lamentation funèbre, Morte e pianto rituale nel mondo antico. Dal lamento pagano al pianto di Maria (1958), fruit d’une étude de terrain dans la région sud italienne de la Lucania (Basilicata). Tout en considérant les relations intermédiales entre les images, le texte, le son et le corps, ce mémoire identifie les rapports dialectiques entre les techniques d’enregistrement et les logiques répétitives, rythmiques et performatives des rituels en question. Chez De Martino, l’image est point de tension en matière de temporalité et de ressemblance : elle suggère une anthropologie de la « survivance » nous permettant de relever plusieurs correspondances avec l'oeuvre de l’historien de l’art Aby Warburg.
Resumo:
À mesure que la population des personnes agées dans les pays industrialisés augmente au fil de années, les ressources nécessaires au maintien du niveau de vie de ces personnes augmentent aussi. Des statistiques montrent que les chutes sont l’une des principales causes d’hospitalisation chez les personnes agées, et, de plus, il a été démontré que le risque de chute d’une personne agée a une correlation avec sa capacité de maintien de l’équilibre en étant debout. Il est donc d’intérêt de développer un système automatisé pour analyser l’équilibre chez une personne, comme moyen d’évaluation objective. Dans cette étude, nous avons proposé l’implémentation d’un tel système. En se basant sur une installation simple contenant une seule caméra sur un trépied, on a développé un algorithme utilisant une implémentation de la méthode de détection d’objet de Viola-Jones, ainsi qu’un appariement de gabarit, pour suivre autant le mouvement latéral que celui antérieur-postérieur d’un sujet. On a obtenu des bons résultats avec les deux types de suivi, cependant l’algorithme est sensible aux conditions d’éclairage, ainsi qu’à toute source de bruit présent dans les images. Il y aurait de l’intérêt, comme développement futur, d’intégrer les deux types de suivi, pour ainsi obtenir un seul ensemble de données facile à interpréter.
Resumo:
En synthèse d'images réalistes, l'intensité finale d'un pixel est calculée en estimant une intégrale de rendu multi-dimensionnelle. Une large portion de la recherche menée dans ce domaine cherche à trouver de nouvelles techniques afin de réduire le coût de calcul du rendu tout en préservant la fidelité et l'exactitude des images résultantes. En tentant de réduire les coûts de calcul afin d'approcher le rendu en temps réel, certains effets réalistes complexes sont souvent laissés de côté ou remplacés par des astuces ingénieuses mais mathématiquement incorrectes. Afin d'accélerer le rendu, plusieurs avenues de travail ont soit adressé directement le calcul de pixels individuels en améliorant les routines d'intégration numérique sous-jacentes; ou ont cherché à amortir le coût par région d'image en utilisant des méthodes adaptatives basées sur des modèles prédictifs du transport de la lumière. L'objectif de ce mémoire, et de l'article résultant, est de se baser sur une méthode de ce dernier type[Durand2005], et de faire progresser la recherche dans le domaine du rendu réaliste adaptatif rapide utilisant une analyse du transport de la lumière basée sur la théorie de Fourier afin de guider et prioriser le lancer de rayons. Nous proposons une approche d'échantillonnage et de reconstruction adaptative pour le rendu de scènes animées illuminées par cartes d'environnement, permettant la reconstruction d'effets tels que les ombres et les réflexions de tous les niveaux fréquentiels, tout en préservant la cohérence temporelle.
Resumo:
Simuler efficacement l'éclairage global est l'un des problèmes ouverts les plus importants en infographie. Calculer avec précision les effets de l'éclairage indirect, causés par des rebonds secondaires de la lumière sur des surfaces d'une scène 3D, est généralement un processus coûteux et souvent résolu en utilisant des algorithmes tels que le path tracing ou photon mapping. Ces techniquesrésolvent numériquement l'équation du rendu en utilisant un lancer de rayons Monte Carlo. Ward et al. ont proposé une technique nommée irradiance caching afin d'accélérer les techniques précédentes lors du calcul de la composante indirecte de l'éclairage global sur les surfaces diffuses. Krivanek a étendu l'approche de Ward et Heckbert pour traiter le cas plus complexe des surfaces spéculaires, en introduisant une approche nommée radiance caching. Jarosz et al. et Schwarzhaupt et al. ont proposé un modèle utilisant le hessien et l'information de visibilité pour raffiner le positionnement des points de la cache dans la scène, raffiner de manière significative la qualité et la performance des approches précédentes. Dans ce mémoire, nous avons étendu les approches introduites dans les travaux précédents au problème du radiance caching pour améliorer le positionnement des éléments de la cache. Nous avons aussi découvert un problème important négligé dans les travaux précédents en raison du choix des scènes de test. Nous avons fait une étude préliminaire sur ce problème et nous avons trouvé deux solutions potentielles qui méritent une recherche plus approfondie.
Resumo:
Cette thèse pose la question du positionnement identitaire difficile qui marque la trajectoire littéraire de l’écrivaine belge Suzanne Lilar (1901-1992). Le tiraillement vécu par l’écrivaine entre sa vocation artistique et la nécessité de préserver une image de soi conforme aux normes du milieu social dans lequel elle s’inscrit se reflète dans les scénographies construites par ses œuvres littéraires, mais également dans son discours réflexif et paratextuel ainsi que dans la manière dont son œuvre est accueilli par la presse de l’époque. Le premier volet de cette analyse s’attache à circonscrire la position occupée par Suzanne Lilar sur la scène littéraire belge, dont la proximité avec le centre parisien a toujours entretenu la menace de l’assimilation, et sur la scène de l’écriture féminine. Le deuxième volet de cette thèse porte sur l’analyse des scénographies construites par les textes de fiction et les textes à tendance autobiographique de Suzanne Lilar. Les doubles scénographies que donnent à lire ces œuvres montrent que la démarche esthétique de Suzanne Lilar, sous-tendue par le besoin de légitimation de son entreprise, est basée principalement sur la multiplication des perspectives et des moyens d’expression. Le dédoublement de la scène énonciative des récits, la mise en abyme de la figure auctoriale ainsi que le travail d’autoréécriture témoignent de la nécessité de se positionner dans le champ littéraire, mais également de la méfiance de l’écrivaine envers l’écriture littéraire. Le troisième volet de cette recherche analyse l’éthos et la posture que Lilar construit à l’aide du discours réflexif et paratextuel par lequel elle assoit sa légitimité sur la scène littéraire et sociale. Enfin, la dernière partie de cette thèse capte les échos de l’œuvre de Lilar dans la presse de son temps. L’image de l’auteure construite par les médias permet de placer Lilar au sein de l’institution et du champ littéraire, mais également au sein du groupe social dans lequel elle s’inscrit. L’accueil réservé à l’écrivaine par la presse de son époque semble suivre les fluctuations de la posture construite par l’écrivaine elle-même. Cela confirme l’hypothèse selon laquelle Lilar est une auteure qui a éprouvé de la difficulté à assumer pleinement son rôle. Le positionnement en porte-à-faux – dont témoigne la figure du trompe-l’œil qui définit sa poétique – semble avoir représenté, pour Lilar, la seule manière d’assumer l’incontournable paratopie créatrice.
Resumo:
Ce mémoire s'intéresse à la reconstruction d'un modèle 3D à partir de plusieurs images. Le modèle 3D est élaboré avec une représentation hiérarchique de voxels sous la forme d'un octree. Un cube englobant le modèle 3D est calculé à partir de la position des caméras. Ce cube contient les voxels et il définit la position de caméras virtuelles. Le modèle 3D est initialisé par une enveloppe convexe basée sur la couleur uniforme du fond des images. Cette enveloppe permet de creuser la périphérie du modèle 3D. Ensuite un coût pondéré est calculé pour évaluer la qualité de chaque voxel à faire partie de la surface de l'objet. Ce coût tient compte de la similarité des pixels provenant de chaque image associée à la caméra virtuelle. Finalement et pour chacune des caméras virtuelles, une surface est calculée basée sur le coût en utilisant la méthode de SGM. La méthode SGM tient compte du voisinage lors du calcul de profondeur et ce mémoire présente une variation de la méthode pour tenir compte des voxels précédemment exclus du modèle par l'étape d'initialisation ou de creusage par une autre surface. Par la suite, les surfaces calculées sont utilisées pour creuser et finaliser le modèle 3D. Ce mémoire présente une combinaison innovante d'étapes permettant de créer un modèle 3D basé sur un ensemble d'images existant ou encore sur une suite d'images capturées en série pouvant mener à la création d'un modèle 3D en temps réel.
Resumo:
Ce mémoire s'intéresse à la détection de mouvement dans une séquence d'images acquises à l'aide d'une caméra fixe. Dans ce problème, la difficulté vient du fait que les mouvements récurrents ou non significatifs de la scène tels que les oscillations d'une branche, l'ombre d'un objet ou les remous d'une surface d'eau doivent être ignorés et classés comme appartenant aux régions statiques de la scène. La plupart des méthodes de détection de mouvement utilisées à ce jour reposent en fait sur le principe bas-niveau de la modélisation puis la soustraction de l'arrière-plan. Ces méthodes sont simples et rapides mais aussi limitées dans les cas où l'arrière-plan est complexe ou bruité (neige, pluie, ombres, etc.). Cette recherche consiste à proposer une technique d'amélioration de ces algorithmes dont l'idée principale est d'exploiter et mimer deux caractéristiques essentielles du système de vision humain. Pour assurer une vision nette de l’objet (qu’il soit fixe ou mobile) puis l'analyser et l'identifier, l'œil ne parcourt pas la scène de façon continue, mais opère par une série de ``balayages'' ou de saccades autour (des points caractéristiques) de l'objet en question. Pour chaque fixation pendant laquelle l'œil reste relativement immobile, l'image est projetée au niveau de la rétine puis interprétée en coordonnées log polaires dont le centre est l'endroit fixé par l'oeil. Les traitements bas-niveau de détection de mouvement doivent donc s'opérer sur cette image transformée qui est centrée pour un point (de vue) particulier de la scène. L'étape suivante (intégration trans-saccadique du Système Visuel Humain (SVH)) consiste ensuite à combiner ces détections de mouvement obtenues pour les différents centres de cette transformée pour fusionner les différentes interprétations visuelles obtenues selon ses différents points de vue.