920 resultados para Image Based Visual Servoing
Resumo:
Structural differences such as abnormalities, damage and free spaces in seeds may affect germination. The aim of this study was to study the relationship between eggplant seed morphology and seed germination. Ten seed lots of the eggplant cultivar Embu were evaluated by X-ray image analysis and the germination test. Seed image analysis was performed by Image Pro Plus® software and the whole seed area and free space between the embryo and endosperm were measured. The internal seed area filled by the embryo and endosperm was calculated from the difference between the whole seed and free space areas. Based on these results and visual seed analysis, seeds were classified into three categories and information on germination was obtained for each one. X-ray image analysis provides a perfect view of the internal seed parts and for seed morphology studies. An increase in seed area filled by the endosperm and embryo does not improve seed germination. Mechanical seed damage and deteriorated tissues can adversely affect seed germination.
Resumo:
The purpose of this study was to explore the employer brand image and its formation of a Finnish (yet international) service company in B2B sector. In the research qualitative case study method was used to explore the most preferred attributes in employer attraction, the employer brand perceptions towards the case company, and the effectors behind these brand perceptions among the prospective group of employees. The research was conducted through in-depth semistructured interviews among 23-30 undergraduate or graduate business students in Finnish universities close to their graduation. After deriving the attributes of an attractive employer, and exploring their relation to the case company, the employer brand image of the case company was determined and its attractiveness level evaluated. Moreover, the formation of the employer brand image was investigated and its sources detected. The most important factors for the target group in employer attractiveness were found to be company reputation and company culture/work atmosphere. Also career opportunities and international opportunities were seen important. The case company was found to hold a positive, attractive image on company culture and international opportunities, but failing to hold a good reputation as a fair employer. The main and most impactful source of employer brand image was former and current employees - directly or indirectly. Company’s own actions played only small part in employer brand formation as credibility is a critical factor in brand image formation and corporate communication found not to be perceived genuine. Based on the findings, suggestions for further employer branding were made.
Resumo:
The purpose of this study is to identify the factors affecting the formation of employer image and attractiveness in the minds of an organization’s employees. Six employees from different backgrounds and business units within a larger organization are interviewed, and the results are compared in order to better understand the effect divergent variables have on the resulting factors. The theoretical background of the research is based on the study of the concept of employer branding, an organization’s effort in affecting the employer image it projects and attractiveness perceived by the employees and applicants. The results of the study reveal how immaterial factors, primarily related to self-actualization and social relationships, often took precedence over material ones, so long as the material factors, such as salary and work equipment, were at least on a minimum level acceptable to the employee. As such, focusing on these immaterial factors when forming an employer brand strategy is expected to yield larger benefits in form of employer attractiveness.
Resumo:
The aim of this thesis was to examine whether company initiated commercial communication in personal blogs has an effect on consumers’ brand image. A detailed picture of the main topics was built based on the previous academic literature. The study explores how sponsored and company-initiated blog postings influence consumers’ brand image with a qualitative research. A framework defines the link between the main concepts of commercial blog communication and how this can be used in order to reach positive results in relation to consumers’ brand image. The findings of this study demonstrate that if the tech-savvy consumers consider that the commercial blog communication is genuine and the blogger stands behind the recommendation of the blog posting, it will result on a more positive brand image. However, if the consumers consider the content of the blog posting to be too controlled by the company, it is automatically seen as an advertisement instead of a recommendation by someone trustworthy. The company-controlled commercial blog communication without presenting the personality of the blogger has negative effects on brand image.
Resumo:
My research permitted me to reexamine my recent evaluations of the Leaf Project given to the Foundation Year students during the fall semester of 1997. My personal description of the drawing curriculum formed part of the matrix of the Foundation Core Studies at the Ontario College of Art and Design. Research was based on the random selection of 1 8 students distributed over six of my teaching groups. The entire process included a representation of all grade levels. The intent of the research was to provide a pattern of alternative insights that could provide a more meaningful method of evaluation for visual learners in an art education setting. Visual methods of learning are indeed complex and involve the interplay of many sensory modalities of input. Using a qualitative method of research analysis, a series of queries were proposed into a structured matrix grid for seeking out possible and emerging patterns of learning. The grid provided for interrelated visual and linguistic analysis with emphasis in reflection and interconnectedness. Sensory-based modes of learning are currently being studied and discussed amongst educators as alternative approaches to learning. As patterns emerged from the research, it became apparent that a paradigm for evaluation would have to be a progressive profile of the learning that would take into account many of the different and evolving learning processes of the individual. A broader review of the student's entire development within the Foundation Year Program would have to have a shared evaluation through a cross section of representative faculty in the program. The results from the research were never intended to be conclusive. We realized from the start that sensory-based learning is a difficult process to evaluate from traditional standards used in education. The potential of such a process of inquiry permits the researcher to ask for a set of queries that might provide for a deeper form of evaluation unique to the students and their related learning environment. Only in this context can qualitative methods be used to profile their learning experiences in an expressive and meaningful manner.
Resumo:
Confocal and two-photon microcopy have become essential tools in biological research and today many investigations are not possible without their help. The valuable advantage that these two techniques offer is the ability of optical sectioning. Optical sectioning makes it possible to obtain 3D visuahzation of the structiu-es, and hence, valuable information of the structural relationships, the geometrical, and the morphological aspects of the specimen. The achievable lateral and axial resolutions by confocal and two-photon microscopy, similar to other optical imaging systems, are both defined by the diffraction theorem. Any aberration and imperfection present during the imaging results in broadening of the calculated theoretical resolution, blurring, geometrical distortions in the acquired images that interfere with the analysis of the structures, and lower the collected fluorescence from the specimen. The aberrations may have different causes and they can be classified by their sources such as specimen-induced aberrations, optics-induced aberrations, illumination aberrations, and misalignment aberrations. This thesis presents an investigation and study of image enhancement. The goal of this thesis was approached in two different directions. Initially, we investigated the sources of the imperfections. We propose methods to eliminate or minimize aberrations introduced during the image acquisition by optimizing the acquisition conditions. The impact on the resolution as a result of using a coverslip the thickness of which is mismatched with the one that the objective lens is designed for was shown and a novel technique was introduced in order to define the proper value on the correction collar of the lens. The amoimt of spherical aberration with regard to t he numerical aperture of the objective lens was investigated and it was shown that, based on the purpose of our imaging tasks, different numerical apertures must be used. The deformed beam cross section of the single-photon excitation source was corrected and the enhancement of the resolution and image quaUty was shown. Furthermore, the dependency of the scattered light on the excitation wavelength was shown empirically. In the second part, we continued the study of the image enhancement process by deconvolution techniques. Although deconvolution algorithms are used widely to improve the quality of the images, how well a deconvolution algorithm responds highly depends on the point spread function (PSF) of the imaging system applied to the algorithm and the level of its accuracy. We investigated approaches that can be done in order to obtain more precise PSF. Novel methods to improve the pattern of the PSF and reduce the noise are proposed. Furthermore, multiple soiu'ces to extract the PSFs of the imaging system are introduced and the empirical deconvolution results by using each of these PSFs are compared together. The results confirm that a greater improvement attained by applying the in situ PSF during the deconvolution process.
Resumo:
Body image refers to an individual's internal representation ofhis/her outer self (Cash, 1994; Thompson, Heinberg, Altabe, & Tantleff-Dunn, 1999). It is a multidimensional construct which includes an individual's attitudes towards hislher own physical characteristics (Bane & McAuley, 1998; Cash, 1994; Cash, 2004; Davison & McCabe, 2005; Muth & Cash, 1997; Sabiston, Crocker, & Munroe-Chandler, 2005). Social comparison is the process of thinking about the self in relation to others in order to determine if one's opinions and abilities are adequate and to assess one's social status (Festinger, 1954; Wood, 1996). Research investigating the role of social comparisons on body image has provided some information on the types and nature of the comparisons that are made. The act of making social comparisons may have a negative impact on body image (van den Berg et ai., 2007). Although exercise may improve body image, the impact of social comparisons in exercise settings may be less positive, and there may be differences in the social comparison tendencies between non or infrequent exercisers and exercisers. The present study examined the nature of social comparisons that female collegeaged non or infrequent exercisers and exercisers made with respect to their bodies, and the relationship of these social comparisons to body image attitudes. Specifically, the frequency and direction of comparisons on specific tal-gets and body dimensions were examined in both non or infrequent exercisers and exercisers. Finally, the relationship between body-image attitudes and the frequency and direction with which body-related social comparisons were made for non or infrequent exercisers and exercisers were examined. One hundred and fifty-two participants completed the study (n = 70 non or ill infrequent exercisers; n = 82 exercisers). Participants completed measures of social physique anxiety (SPA), body dissatisfaction, body esteem, body image cognitions, leisure time physical activity, and social comparisons. Results suggested that both groups (non or infrequent exercisers and exercisers) generally made social comparisons and most frequently made comparisons with same-sex friends, and least frequently with same-sex parents. Also, both groups made more appearance-related comparisons than non-appearance-related comparisons. Further, both groups made more negative comparisons with almost all targets. However, non or infrequent exercisers generally made more negative comparisons on all body dimensions, while exercisers made negative comparisons only on weight and body shape dimensions. MANOV As were conducted to examine if any differences on social comparisons between the two groups existed. Results of the MANOVAs indicated that frequency of comparisons with targets, the frequency of comparisons on body dimensions, and direction of comparisons with targets did not differ based on exercise status. However, the direction of comparison of specific body dimensions revealed a significant (F (7, 144) = 3.26,p < .05; 1]2 = .132) difference based on exercise status. Follow-up ANOVAs showed significant differences on five variables: physical attractiveness (F (1, 150) = 6.33,p < .05; 1]2 = .041); fitness (F(l, 150) = 11.89,p < .05; 1]2 = .073); co-ordination (F(I, 150) = 5.61,p < .05; 1]2 = .036); strength (F(I, dO) = 12.83,p < .05; 1]2 = .079); muscle mass or tone (F(l, 150) = 17.34,p < .05; 1]2 = 1.04), with exercisers making more positive comparisons than non or infrequent exercisers. The results from the regression analyses for non or infrequent exercisers showed appearance orientation was a significant predictor of the frequency of social comparisons N (B = .429, SEB = .154, /3 = .312,p < .01). Also, trait body image measures accounted for significant variance in the direction of social comparisons (F(9, 57) = 13.43,p < .001, R2adj = .68). Specifically, SPA (B = -.583, SEB = .186, /3 = -.446,p < .01) and body esteem-weight concerns (B = .522, SEB = .207, /3 = .432,p < .01) were significant predictors of the direction of comparisons. For exercisers, regressions revealed that specific trait measures of body image significantly predicted the frequency of comparisons (F(9, 71) = 8.67,p < .001, R2adj = .463). Specifically, SPA (B = .508, SEB = .147, /3 = .497,p < .01) and appearance orientation (B = .457, SEB = .134, /3 = .335,p < .01) were significant predictors of the frequency of social comparisons. Lastly, for exercisers, the results for the regression of body image measures on the direction of social comparisons were also significant (F(9, 70) = 14.65,p < .001, R2adj = .609) with body dissatisfaction (B = .368, SEB = .143, /3 = .362,p < .05), appearan.ce orientation (B = .256, SEB = .123, /3 = .175,p < .05), and fitness orientation (B = .423, SEB = .194, /3 = .266,p < .05) significant predictors of the direction of social comparison. The results indicated that young women made frequent social comparisons regardless of exercise status. However, exercisers m,a de more positive comparisons on all the body dimensions than non or infrequent exercisers. Also, certain trait body image measures may be good predictors of one's body comp~son tendencies. However, the measures which predict comparison tendencies may be different for non or infrequent exercisers and exercisers. Future research should examine the effects of social comparisons in different populations (i.e., males, the obese, older adults, etc.). Implications for practice and research were discussed.
Resumo:
The purpose of this project was to discern the inherent tension present in narratives told by adolescents with a visual impairment as they attempted to make sense of their experiences, specifically those surrounding risk. Mediated action, based on the foundational work of Vygotsky and Bakhtin, was used as both a theoretical and methodological approach; it is the theory that there are two components that constitute any human action: the "agent," or the person who is doing the acting, and the "mediational means" that he or she is using to accomplish the action in question. Tension ensues as neither is able to fully explain human behaviour. Ten adolescents with a visual impairment participated in a narrative interview, revealing numerous counter-narratives surrounding risk-taking, including "experimentation undertaken using good judgment." Participants offered examples of how they engaged, appropriated, resisted and transformed the dominant narratives of disability and adolescence in their identity formation.
Resumo:
Ayant réalisé neuf longs-métrages entre 1988 et 2007, aussi que plusieurs campagnes publicitaires, vidéo-clips, courts-métrages et projets collectifs, Wong Kar-wai est un des réalisateurs contemporains les plus importants actuellement. Issu de l'industrie cinématographique fortement commerciale de Hong Kong, Wong est parvenu à attirer l'attention du circuit international des festivals de cinéma avec son style visuel unique et son récit fragmenté. Considéré par plusieurs critiques comme le poète de la recherche d’identité de Hong Kong après 1997, Wong Kar-wai défie toutes les tentatives de catégorisation. L’étude qui se poursuivit ici a donc pour objet essentiel de fournir une analyse attentive et complète de son oeuvre, tout en se concentrant sur les traits stylistiques qui donnent à ses films une unité. Ces caractéristiques correspondent à une certaine façon de raconter des histoires, de composer des personnages et des récits, de manipuler le temps et d'utiliser des ressources techniques de sorte que ses films offrent une identité cohérente. L'objectif est d'analyser les différents composants de ses images pour découvrir comment ses films communiquent les uns avec les autres afin de créer une identité unique. Pour atteindre cet objectif, je pose comme hypothèse de travail que le cinéma de Wong est marqué par une structure dualiste qui permet à ses films de présenter des qualités contradictoires simultanément. La plupart de mes arguments se concentrent sur le travail du philosophe français Gilles Deleuze, qui a proposé une théorie du cinéma divisé entre l’image-mouvement et l’image-temps. Je considère que sa théorie fournit un cadre valide sur lequel les films de Wong peuvent être projetés. Tandis que ma recherche se concentre sur l’interprétation textuelle des films, je profiterais également d’une analyse comparative.
Resumo:
Objectif: Nous avons effectué une étude chez 135 patients ayant subis une chirurgie lombo-sacrée avec vissage pédiculaire sous navigation par tomographie axiale. Nous avons évalué la précision des vis pédiculaires et les résultats cliniques. Méthodes: Cette étude comporte 44 hommes et 91 femmes (âge moyen=61, intervalle 24-90 ans). Les diamètres, longueurs et trajectoires des 836 vis ont été planifiés en préopératoire avec un système de navigation (SNN, Surgical Navigation Network, Mississauga). Les patients ont subi une fusion lombaire (55), lombo-sacrée (73) et thoraco-lombo-sacrée (7). La perforation pédiculaire, la longueur des vis et les spondylolisthesis sont évalués par tomographies axiales postopératoires. Le niveau de douleur est mesuré par autoévaluations, échelles visuelles analogues et questionnaires (Oswestry et SF-36). La fusion osseuse a été évaluée par l’examen des radiographies postopératoires. Résultats: Une perforation des pédicules est présente pour 49/836 (5.9%) des vis (2.4% latéral, 1.7% inférieur, 1.1% supérieur, 0.7% médial). Les erreurs ont été mineures (0.1-2mm, 46/49) ou intermédiaires (2.1 - 4mm, 3/49 en latéral). Il y a aucune erreur majeure (≥ 4.1mm). Certaines vis ont été jugées trop longues (66/836, 8%). Le temps moyen pour insérer une vis en navigation a été de 19.1 minutes de l΄application au retrait du cadre de référence. Un an postopératoire on note une amélioration de la douleur des jambes et lombaire de 72% et 48% en moyenne respectivement. L’amélioration reste stable après 2 ans. La dégénérescence radiologique au dessus et sous la fusion a été retrouvée chez 44 patients (33%) and 3 patients respectivement (2%). Elle est survenue en moyenne 22.2 ± 2.6 mois après la chirurgie. Les fusions se terminant à L2 ont été associées à plus de dégénération (14/25, 56%). Conclusion: La navigation spinale basée sur des images tomographiques préopératoires est une technique sécuritaire et précise. Elle donne de bons résultats à court terme justifiant l’investissement de temps chirurgical. La dégénérescence segmentaire peut avoir un impact négatif sur les résultats radiologique et cliniques.
Resumo:
Les tâches de vision artificielle telles que la reconnaissance d’objets demeurent irrésolues à ce jour. Les algorithmes d’apprentissage tels que les Réseaux de Neurones Artificiels (RNA), représentent une approche prometteuse permettant d’apprendre des caractéristiques utiles pour ces tâches. Ce processus d’optimisation est néanmoins difficile. Les réseaux profonds à base de Machine de Boltzmann Restreintes (RBM) ont récemment été proposés afin de guider l’extraction de représentations intermédiaires, grâce à un algorithme d’apprentissage non-supervisé. Ce mémoire présente, par l’entremise de trois articles, des contributions à ce domaine de recherche. Le premier article traite de la RBM convolutionelle. L’usage de champs réceptifs locaux ainsi que le regroupement d’unités cachées en couches partageant les même paramètres, réduit considérablement le nombre de paramètres à apprendre et engendre des détecteurs de caractéristiques locaux et équivariant aux translations. Ceci mène à des modèles ayant une meilleure vraisemblance, comparativement aux RBMs entraînées sur des segments d’images. Le deuxième article est motivé par des découvertes récentes en neurosciences. Il analyse l’impact d’unités quadratiques sur des tâches de classification visuelles, ainsi que celui d’une nouvelle fonction d’activation. Nous observons que les RNAs à base d’unités quadratiques utilisant la fonction softsign, donnent de meilleures performances de généralisation. Le dernière article quand à lui, offre une vision critique des algorithmes populaires d’entraînement de RBMs. Nous montrons que l’algorithme de Divergence Contrastive (CD) et la CD Persistente ne sont pas robustes : tous deux nécessitent une surface d’énergie relativement plate afin que leur chaîne négative puisse mixer. La PCD à "poids rapides" contourne ce problème en perturbant légèrement le modèle, cependant, ceci génère des échantillons bruités. L’usage de chaînes tempérées dans la phase négative est une façon robuste d’adresser ces problèmes et mène à de meilleurs modèles génératifs.
Resumo:
Le regroupement des neurones de propriétés similaires est à l’origine de modules permettant d’optimiser l’analyse de l’information. La conséquence est la présence de cartes fonctionnelles dans le cortex visuel primaire de certains mammifères pour de nombreux paramètres tels que l’orientation, la direction du mouvement ou la position des stimuli (visuotopie). Le premier volet de cette thèse est consacré à caractériser l’organisation modulaire dans le cortex visuel primaire pour un paramètre fondamental, la suppression centre / pourtour et au delà du cortex visuel primaire (dans l’aire 21a), pour l’orientation et la direction. Toutes les études ont été effectuées à l’aide de l’imagerie optique des signaux intrinsèques sur le cortex visuel du chat anesthésié. La quantification de la modulation par la taille des stimuli à permis de révéler la présence de modules de forte et de faible suppression par le pourtour dans le cortex visuel primaire (aires 17 et 18). Ce type d’organisation n’avait été observé jusqu’ici que dans une aire de plus haut niveau hiérarchique chez le primate. Une organisation modulaire pour l’orientation, similaire à celle observée dans le cortex visuel primaire a été révélée dans l’aire 21a. Par contre, contrairement à l’aire 18, l’aire 21a ne semblait pas être organisée en domaine de direction. L’ensemble de ces résultats pourront permettre d’alimenter les connaissances sur l’organisation anatomo-fonctionnelle du cortex visuel du chat mais également de mieux comprendre les facteurs qui déterminent la présence d’une organisation modulaire. Le deuxième volet abordé dans cette thèse s’est intéressé à l’amélioration de l’aspect quantitatif apporté par l’analyse temporelle en imagerie optique des signaux intrinsèques. Cette nouvelle approche, basée sur l’analyse de Fourier a permis d’augmenter considérablement le rapport signal / bruit des enregistrements. Toutefois, cette analyse ne s’est basée jusqu’ici que sur la quantification d’une seule harmonique ce qui a limité son emploi à la cartographie de l’orientation et de rétinotopie uniquement. En exploitant les plus hautes harmoniques, un modèle a été proposé afin d’estimer la taille des champs récepteurs et la sélectivité à la direction. Ce modèle a par la suite été validé par des approches conventionnelles dans le cortex visuel primaire.
Resumo:
La texture est un élément clé pour l’interprétation des images de télédétection à fine résolution spatiale. L’intégration de l’information texturale dans un processus de classification automatisée des images se fait habituellement via des images de texture, souvent créées par le calcul de matrices de co-occurrences (MCO) des niveaux de gris. Une MCO est un histogramme des fréquences d’occurrence des paires de valeurs de pixels présentes dans les fenêtres locales, associées à tous les pixels de l’image utilisée; une paire de pixels étant définie selon un pas et une orientation donnés. Les MCO permettent le calcul de plus d’une dizaine de paramètres décrivant, de diverses manières, la distribution des fréquences, créant ainsi autant d’images texturales distinctes. L’approche de mesure des textures par MCO a été appliquée principalement sur des images de télédétection monochromes (ex. images panchromatiques, images radar monofréquence et monopolarisation). En imagerie multispectrale, une unique bande spectrale, parmi celles disponibles, est habituellement choisie pour générer des images de texture. La question que nous avons posée dans cette recherche concerne justement cette utilisation restreinte de l’information texturale dans le cas des images multispectrales. En fait, l’effet visuel d’une texture est créé, non seulement par l’agencement particulier d’objets/pixels de brillance différente, mais aussi de couleur différente. Plusieurs façons sont proposées dans la littérature pour introduire cette idée de la texture à plusieurs dimensions. Parmi celles-ci, deux en particulier nous ont intéressés dans cette recherche. La première façon fait appel aux MCO calculées bande par bande spectrale et la seconde utilise les MCO généralisées impliquant deux bandes spectrales à la fois. Dans ce dernier cas, le procédé consiste en le calcul des fréquences d’occurrence des paires de valeurs dans deux bandes spectrales différentes. Cela permet, en un seul traitement, la prise en compte dans une large mesure de la « couleur » des éléments de texture. Ces deux approches font partie des techniques dites intégratives. Pour les distinguer, nous les avons appelées dans cet ouvrage respectivement « textures grises » et « textures couleurs ». Notre recherche se présente donc comme une analyse comparative des possibilités offertes par l’application de ces deux types de signatures texturales dans le cas spécifique d’une cartographie automatisée des occupations de sol à partir d’une image multispectrale. Une signature texturale d’un objet ou d’une classe d’objets, par analogie aux signatures spectrales, est constituée d’une série de paramètres de texture mesurés sur une bande spectrale à la fois (textures grises) ou une paire de bandes spectrales à la fois (textures couleurs). Cette recherche visait non seulement à comparer les deux approches intégratives, mais aussi à identifier la composition des signatures texturales des classes d’occupation du sol favorisant leur différentiation : type de paramètres de texture / taille de la fenêtre de calcul / bandes spectrales ou combinaisons de bandes spectrales. Pour ce faire, nous avons choisi un site à l’intérieur du territoire de la Communauté Métropolitaine de Montréal (Longueuil) composé d’une mosaïque d’occupations du sol, caractéristique d’une zone semi urbaine (résidentiel, industriel/commercial, boisés, agriculture, plans d’eau…). Une image du satellite SPOT-5 (4 bandes spectrales) de 10 m de résolution spatiale a été utilisée dans cette recherche. Puisqu’une infinité d’images de texture peuvent être créées en faisant varier les paramètres de calcul des MCO et afin de mieux circonscrire notre problème nous avons décidé, en tenant compte des études publiées dans ce domaine : a) de faire varier la fenêtre de calcul de 3*3 pixels à 21*21 pixels tout en fixant le pas et l’orientation pour former les paires de pixels à (1,1), c'est-à-dire à un pas d’un pixel et une orientation de 135°; b) de limiter les analyses des MCO à huit paramètres de texture (contraste, corrélation, écart-type, énergie, entropie, homogénéité, moyenne, probabilité maximale), qui sont tous calculables par la méthode rapide de Unser, une approximation des matrices de co-occurrences, c) de former les deux signatures texturales par le même nombre d’éléments choisis d’après une analyse de la séparabilité (distance de Bhattacharya) des classes d’occupation du sol; et d) d’analyser les résultats de classification (matrices de confusion, exactitudes, coefficients Kappa) par maximum de vraisemblance pour conclure sur le potentiel des deux approches intégratives; les classes d’occupation du sol à reconnaître étaient : résidentielle basse et haute densité, commerciale/industrielle, agricole, boisés, surfaces gazonnées (incluant les golfs) et plans d’eau. Nos principales conclusions sont les suivantes a) à l’exception de la probabilité maximale, tous les autres paramètres de texture sont utiles dans la formation des signatures texturales; moyenne et écart type sont les plus utiles dans la formation des textures grises tandis que contraste et corrélation, dans le cas des textures couleurs, b) l’exactitude globale de la classification atteint un score acceptable (85%) seulement dans le cas des signatures texturales couleurs; c’est une amélioration importante par rapport aux classifications basées uniquement sur les signatures spectrales des classes d’occupation du sol dont le score est souvent situé aux alentours de 75%; ce score est atteint avec des fenêtres de calcul aux alentours de11*11 à 15*15 pixels; c) Les signatures texturales couleurs offrant des scores supérieurs à ceux obtenus avec les signatures grises de 5% à 10%; et ce avec des petites fenêtres de calcul (5*5, 7*7 et occasionnellement 9*9) d) Pour plusieurs classes d’occupation du sol prises individuellement, l’exactitude dépasse les 90% pour les deux types de signatures texturales; e) une seule classe est mieux séparable du reste par les textures grises, celle de l’agricole; f) les classes créant beaucoup de confusions, ce qui explique en grande partie le score global de la classification de 85%, sont les deux classes du résidentiel (haute et basse densité). En conclusion, nous pouvons dire que l’approche intégrative par textures couleurs d’une image multispectrale de 10 m de résolution spatiale offre un plus grand potentiel pour la cartographie des occupations du sol que l’approche intégrative par textures grises. Pour plusieurs classes d’occupations du sol un gain appréciable en temps de calcul des paramètres de texture peut être obtenu par l’utilisation des petites fenêtres de traitement. Des améliorations importantes sont escomptées pour atteindre des exactitudes de classification de 90% et plus par l’utilisation des fenêtres de calcul de taille variable adaptées à chaque type d’occupation du sol. Une méthode de classification hiérarchique pourrait être alors utilisée afin de séparer les classes recherchées une à la fois par rapport au reste au lieu d’une classification globale où l’intégration des paramètres calculés avec des fenêtres de taille variable conduirait inévitablement à des confusions entre classes.
Resumo:
Le Ministère des Ressources Naturelles et de la Faune (MRNF) a mandaté la compagnie de géomatique SYNETIX inc. de Montréal et le laboratoire de télédétection de l’Université de Montréal dans le but de développer une application dédiée à la détection automatique et la mise à jour du réseau routier des cartes topographiques à l’échelle 1 : 20 000 à partir de l’imagerie optique à haute résolution spatiale. À cette fin, les mandataires ont entrepris l’adaptation du progiciel SIGMA0 qu’ils avaient conjointement développé pour la mise à jour cartographique à partir d’images satellitales de résolution d’environ 5 mètres. Le produit dérivé de SIGMA0 fut un module nommé SIGMA-ROUTES dont le principe de détection des routes repose sur le balayage d’un filtre le long des vecteurs routiers de la cartographie existante. Les réponses du filtre sur des images couleurs à très haute résolution d’une grande complexité radiométrique (photographies aériennes) conduisent à l’assignation d’étiquettes selon l’état intact, suspect, disparu ou nouveau aux segments routiers repérés. L’objectif général de ce projet est d’évaluer la justesse de l’assignation des statuts ou états en quantifiant le rendement sur la base des distances totales détectées en conformité avec la référence ainsi qu’en procédant à une analyse spatiale des incohérences. La séquence des essais cible d’abord l’effet de la résolution sur le taux de conformité et dans un second temps, les gains escomptés par une succession de traitements de rehaussement destinée à rendre ces images plus propices à l’extraction du réseau routier. La démarche globale implique d’abord la caractérisation d’un site d’essai dans la région de Sherbrooke comportant 40 km de routes de diverses catégories allant du sentier boisé au large collecteur sur une superficie de 2,8 km2. Une carte de vérité terrain des voies de communication nous a permis d’établir des données de référence issues d’une détection visuelle à laquelle sont confrontés les résultats de détection de SIGMA-ROUTES. Nos résultats confirment que la complexité radiométrique des images à haute résolution en milieu urbain bénéficie des prétraitements telles que la segmentation et la compensation d’histogramme uniformisant les surfaces routières. On constate aussi que les performances présentent une hypersensibilité aux variations de résolution alors que le passage entre nos trois résolutions (84, 168 et 210 cm) altère le taux de détection de pratiquement 15% sur les distances totales en concordance avec la référence et segmente spatialement de longs vecteurs intacts en plusieurs portions alternant entre les statuts intact, suspect et disparu. La détection des routes existantes en conformité avec la référence a atteint 78% avec notre plus efficace combinaison de résolution et de prétraitements d’images. Des problèmes chroniques de détection ont été repérés dont la présence de plusieurs segments sans assignation et ignorés du processus. Il y a aussi une surestimation de fausses détections assignées suspectes alors qu’elles devraient être identifiées intactes. Nous estimons, sur la base des mesures linéaires et des analyses spatiales des détections que l’assignation du statut intact devrait atteindre 90% de conformité avec la référence après divers ajustements à l’algorithme. La détection des nouvelles routes fut un échec sans égard à la résolution ou au rehaussement d’image. La recherche des nouveaux segments qui s’appuie sur le repérage de points potentiels de début de nouvelles routes en connexion avec les routes existantes génère un emballement de fausses détections navigant entre les entités non-routières. En lien avec ces incohérences, nous avons isolé de nombreuses fausses détections de nouvelles routes générées parallèlement aux routes préalablement assignées intactes. Finalement, nous suggérons une procédure mettant à profit certaines images rehaussées tout en intégrant l’intervention humaine à quelques phases charnières du processus.
Resumo:
Lors d'une intervention conversationnelle, le langage est supporté par une communication non-verbale qui joue un rôle central dans le comportement social humain en permettant de la rétroaction et en gérant la synchronisation, appuyant ainsi le contenu et la signification du discours. En effet, 55% du message est véhiculé par les expressions faciales, alors que seulement 7% est dû au message linguistique et 38% au paralangage. L'information concernant l'état émotionnel d'une personne est généralement inférée par les attributs faciaux. Cependant, on ne dispose pas vraiment d'instruments de mesure spécifiquement dédiés à ce type de comportements. En vision par ordinateur, on s'intéresse davantage au développement de systèmes d'analyse automatique des expressions faciales prototypiques pour les applications d'interaction homme-machine, d'analyse de vidéos de réunions, de sécurité, et même pour des applications cliniques. Dans la présente recherche, pour appréhender de tels indicateurs observables, nous essayons d'implanter un système capable de construire une source consistante et relativement exhaustive d'informations visuelles, lequel sera capable de distinguer sur un visage les traits et leurs déformations, permettant ainsi de reconnaître la présence ou absence d'une action faciale particulière. Une réflexion sur les techniques recensées nous a amené à explorer deux différentes approches. La première concerne l'aspect apparence dans lequel on se sert de l'orientation des gradients pour dégager une représentation dense des attributs faciaux. Hormis la représentation faciale, la principale difficulté d'un système, qui se veut être général, est la mise en œuvre d'un modèle générique indépendamment de l'identité de la personne, de la géométrie et de la taille des visages. La démarche qu'on propose repose sur l'élaboration d'un référentiel prototypique à partir d'un recalage par SIFT-flow dont on démontre, dans cette thèse, la supériorité par rapport à un alignement conventionnel utilisant la position des yeux. Dans une deuxième approche, on fait appel à un modèle géométrique à travers lequel les primitives faciales sont représentées par un filtrage de Gabor. Motivé par le fait que les expressions faciales sont non seulement ambigües et incohérentes d'une personne à une autre mais aussi dépendantes du contexte lui-même, à travers cette approche, on présente un système personnalisé de reconnaissance d'expressions faciales, dont la performance globale dépend directement de la performance du suivi d'un ensemble de points caractéristiques du visage. Ce suivi est effectué par une forme modifiée d'une technique d'estimation de disparité faisant intervenir la phase de Gabor. Dans cette thèse, on propose une redéfinition de la mesure de confiance et introduisons une procédure itérative et conditionnelle d'estimation du déplacement qui offrent un suivi plus robuste que les méthodes originales.