926 resultados para Vision-Based Forced Landing
Resumo:
This thesis studies the use of machine vision in RDF quality assurance and manufacturing. Currently machine vision is used in recycling and material detection and some commer- cial products are available in the market. In this thesis an on-line machine vision system is proposed for characterizing particle size. The proposed machine vision system is based on the mapping between image segmenta- tion and the ground truth of the particle size. The results shows that the implementation of such machine vision system is feasible.
Resumo:
Object detection is a fundamental task of computer vision that is utilized as a core part in a number of industrial and scientific applications, for example, in robotics, where objects need to be correctly detected and localized prior to being grasped and manipulated. Existing object detectors vary in (i) the amount of supervision they need for training, (ii) the type of a learning method adopted (generative or discriminative) and (iii) the amount of spatial information used in the object model (model-free, using no spatial information in the object model, or model-based, with the explicit spatial model of an object). Although some existing methods report good performance in the detection of certain objects, the results tend to be application specific and no universal method has been found that clearly outperforms all others in all areas. This work proposes a novel generative part-based object detector. The generative learning procedure of the developed method allows learning from positive examples only. The detector is based on finding semantically meaningful parts of the object (i.e. a part detector) that can provide additional information to object location, for example, pose. The object class model, i.e. the appearance of the object parts and their spatial variance, constellation, is explicitly modelled in a fully probabilistic manner. The appearance is based on bio-inspired complex-valued Gabor features that are transformed to part probabilities by an unsupervised Gaussian Mixture Model (GMM). The proposed novel randomized GMM enables learning from only a few training examples. The probabilistic spatial model of the part configurations is constructed with a mixture of 2D Gaussians. The appearance of the parts of the object is learned in an object canonical space that removes geometric variations from the part appearance model. Robustness to pose variations is achieved by object pose quantization, which is more efficient than previously used scale and orientation shifts in the Gabor feature space. Performance of the resulting generative object detector is characterized by high recall with low precision, i.e. the generative detector produces large number of false positive detections. Thus a discriminative classifier is used to prune false positive candidate detections produced by the generative detector improving its precision while keeping high recall. Using only a small number of positive examples, the developed object detector performs comparably to state-of-the-art discriminative methods.
Resumo:
This thesis explores Aboriginal women's access to and success within universities through an examination of Aboriginal women's educational narratives, along with input from key service providers from both the Aboriginal and non-Aboriginal community. Implemented through the Wildfire Research Method, participants engaged in a consensusbased vision of accessible education that honours the spiritual, emotional, intellectual, and physical elements necessary for the success of Aboriginal women in university. This study positions Aboriginal women as agents of social change by allowing them to define their own needs and offer viable solutions to those needs. Further, it connects service providers from the many disconnected sectors that implicate Aboriginal women's education access. The realities of Aboriginal women are contextualized through historical, sociocultural, and political analyses, revealing the need for a decolonizing educational approach. This fosters a shift away from a deficit model toward a cultural and linguistic assets based approach that emphasizes the need for strong cultural identity formation. Participants revealed academic, cultural, and linguistic barriers and offered clear educational specifications for responsive and culturally relevant programming that will assist Aboriginal women in developing and maintaining strong cultural identities. Findings reveal the need for curriculum that focuses on decolonizing and reclaiming Aboriginal women's identities, and program outcomes that encourage balance between two worldviews-traditional and academic-through the application of cultural traditions to modern contexts, along with programming that responds to the immediate needs of Aboriginal women such as childcare, housing, and funding, and provide an opportunity for universities and educators to engage in responsive and culturally grounded educational approaches.
Resumo:
Les tâches de vision artificielle telles que la reconnaissance d’objets demeurent irrésolues à ce jour. Les algorithmes d’apprentissage tels que les Réseaux de Neurones Artificiels (RNA), représentent une approche prometteuse permettant d’apprendre des caractéristiques utiles pour ces tâches. Ce processus d’optimisation est néanmoins difficile. Les réseaux profonds à base de Machine de Boltzmann Restreintes (RBM) ont récemment été proposés afin de guider l’extraction de représentations intermédiaires, grâce à un algorithme d’apprentissage non-supervisé. Ce mémoire présente, par l’entremise de trois articles, des contributions à ce domaine de recherche. Le premier article traite de la RBM convolutionelle. L’usage de champs réceptifs locaux ainsi que le regroupement d’unités cachées en couches partageant les même paramètres, réduit considérablement le nombre de paramètres à apprendre et engendre des détecteurs de caractéristiques locaux et équivariant aux translations. Ceci mène à des modèles ayant une meilleure vraisemblance, comparativement aux RBMs entraînées sur des segments d’images. Le deuxième article est motivé par des découvertes récentes en neurosciences. Il analyse l’impact d’unités quadratiques sur des tâches de classification visuelles, ainsi que celui d’une nouvelle fonction d’activation. Nous observons que les RNAs à base d’unités quadratiques utilisant la fonction softsign, donnent de meilleures performances de généralisation. Le dernière article quand à lui, offre une vision critique des algorithmes populaires d’entraînement de RBMs. Nous montrons que l’algorithme de Divergence Contrastive (CD) et la CD Persistente ne sont pas robustes : tous deux nécessitent une surface d’énergie relativement plate afin que leur chaîne négative puisse mixer. La PCD à "poids rapides" contourne ce problème en perturbant légèrement le modèle, cependant, ceci génère des échantillons bruités. L’usage de chaînes tempérées dans la phase négative est une façon robuste d’adresser ces problèmes et mène à de meilleurs modèles génératifs.
Resumo:
Cette thése a été réalisée dans le cadre d'une cotutelle avec l'Institut National Polytechnique de Grenoble (France). La recherche a été effectuée au sein des laboratoires de vision 3D (DIRO, UdM) et PERCEPTION-INRIA (Grenoble).
Resumo:
En octobre 2005, l’assemblée générale de l’UNESCO adoptait la Déclaration universelle sur la bioéthique et les droits de l’Homme. Le projet de cette déclaration a été élaboré par le Comité international de bioéthique (CIB) en consultation avec le Comité intergouvernemental de bioéthique (CIGB), les États membres, le comité interagences des Nations Unies, des organisations gouvernementales et non gouvernementales, des comités nationaux d’éthiques et de multiples acteurs impliqués en bioéthique. Cette déclaration faisait suite à deux autres textes sur le même sujet produits en 1997 et 2003, la Déclaration sur le génome humain et les droits de l’homme et la Déclaration internationale sur les données génétiques humaines. Les nouvelles questions éthiques que suscitaient les développements scientifiques et technologiques ainsi que la mondialisation de la recherche avaient incité cette organisation à se doter d’instruments normatifs pouvant rejoindre toutes les nations. Seule organisation mondiale ayant une vocation spécifique en éthique, l’UNESCO a voulu par cette dernière déclaration fournir à ses États membres un cadre normatif susceptible de les aider à formuler des lois et des lignes directrices. Ayant été impliquée, à titre de présidente du Comité international de bioéthique dans la préparation de cet instrument nous nous sommes posée la question suivante : Dans un contexte de mondialisation, une bioéthique qui vise le bien commun universel est-elle possible au sein de la diversité et de la pluralité culturelle des nations ? L’exemple de l’élaboration de la déclaration universelle sur la bioéthique et les droits de l’homme de l’UNESCO. Le bien commun étant un concept fréquemment mentionné et à peu près jamais défini clairement, il nous a semblé intéressant d’en retracer l’histoire et de dégager un cadre conceptuel qui a ensuite servi à étudier et dégager le sens donné à ces concepts dans la préparation de la déclaration. Un premier chapitre présente le contexte et la problématique. Le deuxième chapitre présente la revue de la littérature et la définition des concepts ainsi que le cadre conceptuel. Le troisième chapitre présente le cadre théorique et les données analysées et la méthodologie. Le quatrième chapitre présente l’analyse détaillée des différentes étapes de l’élaboration de la déclaration. Le cinquième chapitre présente la portée et les limites de la thèse et le cinquième chapitre la conclusion. Nous concluons que la déclaration en ayant utilisé une méthode de consultation, de délibération et de consensus pragmatique, offre un texte avec une vision d’un bien commun universel susceptible d’être utilisé dans tous les contextes culturels et par toutes les nations, spécialement les nations en développement. En effet, son architecture flexible et son souci de ne pas catégoriser les principes, mais plutôt de les utiliser en complémentarité les uns avec les autres, en fait un texte souple et adaptable au plan mondial. Ce travail pourra aussi contribuer à enrichir la réflexion et l’action des organisations internationales impliquées en bioéthique. Il pourra aussi inspirer les recherches actuelles en sciences politiques et en droit alors que sont explorés de nouveaux modèles de gouvernance et de nouvelles façons de construire les législations et les normes et de faire face aux défis actuels qui se posent aux droits de l’homme.
Resumo:
En observant le foisonnement de métaphores de la lumière et de la vision dans l’œuvre de Reinaldo Arenas – l’accentuation de la couleur, l’éblouissement, la brûlure et le dédoublement – cette thèse s’interroge sur la vision de l’écriture formulée dans et à partir de ces images, et sur les implications de cette vision. Constatant à travers cette réflexion l’inscription à même le langage des images de la lumière et de la vision – de la réflexion à la clarté, en passant par l’image et la lucidité – cette thèse délibère, à travers l’œuvre de Reinaldo Arenas et celle de Jorge Luis Borges, sur une définition de l’écriture comme intensité, notion et image empruntées au registre du sensible par le détour de la physique. Le premier chapitre s’intéresse à la couleur comme phénomène de la vision, du sensible, de l’affect et de la nuance, ainsi qu’à la métaphore de la cécité abordée par Borges et par Paul de Man comme phénomène de la lecture, points d’entrée à une réflexion sur l’écriture. Le second chapitre aborde la notion d’éblouissement en tant qu’intensité de la lumière et temporalité de la prise de conscience lucide, définissant ainsi une vision du temps et les affinités entre la temporalité de l’écriture et celle de l’image poétique. Le troisième chapitre, réitérant la question de la relation au temps – historique et narratif –, réaffirme les inflexions du langage en fonction de la lumière, c’est-à-dire la relation entre l’aspect « lumineux » du langage, l’intensité de la lumière et l’intensité de l’écriture (entendue comme écriture littéraire), en explorant le seuil (la destruction par le feu) mis en lumière par l’image du phénix, figure mythique et littéraire de la transformation des images, selon la définition de l’imagination proposée par Gaston Bachelard. Enfin, la double conclusion (une conclusion en deux parties, ou deux conclusions réfléchies l’une dans l’autre), relie les images poétiques de la lumière évoquées et leurs implications en examinant la portée d’une vision de l’écriture comme intensité. Cette idée est élaborée à travers l’image finale du double, figure littéraire constitutive et omniprésente à la fois chez Arenas et chez Borges, image non seulement de la relation entre le personnage et son double (qui relève de l’hallucination ou de l’imagination, images, encore une fois, de la vision), mais aussi de la relation entre l’auteur et le texte, le lecteur et le texte, l’écriture et le temps. La double conclusion vise le dédoublement et redoublement comme figures de l’intensité dans l’écriture. Le lien entre la vision métaphorique et l’écriture comme intensité est donc articulé par la métaphore, telle qu’entendue par Borges, élargie à l’image poétique dans la perspective de Gaston Bachelard ; elle s’appuie sur la vision de la littérature pensée et écrite par Arenas. La réflexion est double : dans le texte et sur le texte, au plan poétique et au plan d’une réflexion sur l’écriture d’Arenas ; sur l’écriture et, implicitement, sur la littérature.
Resumo:
L’étude que nous avons entreprise dans le cadre de notre mémoire porte sur la domesticité juvénile en Haïti. S’agissant d’une pratique où l’enfant placé en domesticité, en plus d’accomplir des travaux ménagers qui nuisent à son éducation, est généralement victime de mauvais traitements, l’objectif principal de notre recherche était de mettre en lumière les normes existant en matière d’éducation et de traitement physique des jeunes travailleurs domestiques. Inspirée du pluralisme juridique, qui s’intéresse aux divers niveaux de normes existant au sein d’une société, la démarche entreprise pour y parvenir allie recherche théorique et recherche sur le terrain. Dans un premier temps, nous présenterons les informations que notre recherche théorique nous a révélées. Après avoir précisé la notion d’« enfant domestique haïtien », dressé le profil social des acteurs impliqués dans la pratique de la domesticité et identifié les facteurs contingents les plus déterminants, nous dresserons un tableau des principales normes nationales et internationales garantissant aux enfants le droit à l’instruction scolaire et le respect de leur intégrité physique. Dans un second temps, nous exposerons les normes de conduite locales relatives à l’éducation et au traitement physique des jeunes travailleurs domestiques que notre recherche empirique en Haïti nous a permis de découvrir. Sur la base des normes applicables déterminées, nous serons mieux à même de mesurer l’importance de chacune dans la conduite des familles qui reçoivent des enfants domestiques sous leur toit et d’identifier les actions les plus susceptibles d’améliorer la qualité de vie de ceux-ci.
Resumo:
Ce mémoire est une étude sur le développement local comme stratégie de lutte contre la pauvreté en Haïti. C'est une étude de cas sur une stratégie qui a été implantée par la WVI dans plusieurs communautés pauvres en Haïti, le Programme de Développement de zone (PDZ). Nous avons cherché à savoir comment le PDZ a permis de mettre en place un projet de développement local de lutte contre la pauvreté dans ces communautés. Plus spécifiquement, nous avons analysé, à l'aide de la perspective de Klein et al. (2011), le type de stratégie de développement local auquel le PDZ correspond et vu comment il implique les communautés visées. En effet, plusieurs dimensions, dont la majorité proposée par Klein et al. ont été analysées : le transfert de la stratégie aux leaders locaux ; le processus de leadership local (individuel, organisationnel et socio-territorial) ; la mobilisation des ressources endogènes et exogène ; l'utilisation créative des programmes publics ; la gestion locale des conflits et apprentissage collectif ; et la construction d'une identité positive et d'un sentiment d'appartenance. Ce mémoire fait ressortir une critique souvent adressée à l'endroit des interventions des ONGI, à savoir que la situation de dépendance qu'elles engendrent compte tenu de l'approche assistentialiste sur laquelle elles sont souvent échafaudées. Particulièrement, l'étude du PDZ, nous renseigne que dans un contexte de grande pauvreté, de cumulation de désavantages (en termes de ressources humaines, économiques, politiques), ou d'obstacles objectifs, le développement par initiatives locales soulève des défis et enjeux majeurs. Les données montrent que la stratégie du PDZ __ bien qu'elle soit parvenue à développer un leadership local ; à favoriser une circulation limité de ressources économiques ; à permettre la construction d'une identité positive chez certaines personnes ; __ ne permet pas une mobilisation locale co-construite qui viendrait maintenir les actions mises de l'avant en faveur des priorités dégagées par les communautés elles-mêmes. Enfin, à travers l'analyse nous avons pu conclure qu'elle correspond à un modèle top-down.
Resumo:
L’objectif de cette thèse par articles est de présenter modestement quelques étapes du parcours qui mènera (on espère) à une solution générale du problème de l’intelligence artificielle. Cette thèse contient quatre articles qui présentent chacun une différente nouvelle méthode d’inférence perceptive en utilisant l’apprentissage machine et, plus particulièrement, les réseaux neuronaux profonds. Chacun de ces documents met en évidence l’utilité de sa méthode proposée dans le cadre d’une tâche de vision par ordinateur. Ces méthodes sont applicables dans un contexte plus général, et dans certains cas elles on tété appliquées ailleurs, mais ceci ne sera pas abordé dans le contexte de cette de thèse. Dans le premier article, nous présentons deux nouveaux algorithmes d’inférence variationelle pour le modèle génératif d’images appelé codage parcimonieux “spike- and-slab” (CPSS). Ces méthodes d’inférence plus rapides nous permettent d’utiliser des modèles CPSS de tailles beaucoup plus grandes qu’auparavant. Nous démontrons qu’elles sont meilleures pour extraire des détecteur de caractéristiques quand très peu d’exemples étiquetés sont disponibles pour l’entraînement. Partant d’un modèle CPSS, nous construisons ensuite une architecture profonde, la machine de Boltzmann profonde partiellement dirigée (MBP-PD). Ce modèle a été conçu de manière à simplifier d’entraînement des machines de Boltzmann profondes qui nécessitent normalement une phase de pré-entraînement glouton pour chaque couche. Ce problème est réglé dans une certaine mesure, mais le coût d’inférence dans le nouveau modèle est relativement trop élevé pour permettre de l’utiliser de manière pratique. Dans le deuxième article, nous revenons au problème d’entraînement joint de machines de Boltzmann profondes. Cette fois, au lieu de changer de famille de modèles, nous introduisons un nouveau critère d’entraînement qui donne naissance aux machines de Boltzmann profondes à multiples prédictions (MBP-MP). Les MBP-MP sont entraînables en une seule étape et ont un meilleur taux de succès en classification que les MBP classiques. Elles s’entraînent aussi avec des méthodes variationelles standard au lieu de nécessiter un classificateur discriminant pour obtenir un bon taux de succès en classification. Par contre, un des inconvénients de tels modèles est leur incapacité de générer deséchantillons, mais ceci n’est pas trop grave puisque la performance de classification des machines de Boltzmann profondes n’est plus une priorité étant donné les dernières avancées en apprentissage supervisé. Malgré cela, les MBP-MP demeurent intéressantes parce qu’elles sont capable d’accomplir certaines tâches que des modèles purement supervisés ne peuvent pas faire, telles que celle de classifier des données incomplètes ou encore celle de combler intelligemment l’information manquante dans ces données incomplètes. Le travail présenté dans cette thèse s’est déroulé au milieu d’une période de transformations importantes du domaine de l’apprentissage à réseaux neuronaux profonds qui a été déclenchée par la découverte de l’algorithme de “dropout” par Geoffrey Hinton. Dropout rend possible un entraînement purement supervisé d’architectures de propagation unidirectionnel sans être exposé au danger de sur- entraînement. Le troisième article présenté dans cette thèse introduit une nouvelle fonction d’activation spécialement con ̧cue pour aller avec l’algorithme de Dropout. Cette fonction d’activation, appelée maxout, permet l’utilisation de aggrégation multi-canal dans un contexte d’apprentissage purement supervisé. Nous démontrons comment plusieurs tâches de reconnaissance d’objets sont mieux accomplies par l’utilisation de maxout. Pour terminer, sont présentons un vrai cas d’utilisation dans l’industrie pour la transcription d’adresses de maisons à plusieurs chiffres. En combinant maxout avec une nouvelle sorte de couche de sortie pour des réseaux neuronaux de convolution, nous démontrons qu’il est possible d’atteindre un taux de succès comparable à celui des humains sur un ensemble de données coriace constitué de photos prises par les voitures de Google. Ce système a été déployé avec succès chez Google pour lire environ cent million d’adresses de maisons.
Resumo:
Cette recherche avait pour but de déterminer quelle était l’influence de l’administration d’un atelier de prise de notes dans le cadre du premier cours de philosophie du collégial qui se donnait au début de la deuxième session des apprenants. Elle se situait dans le cadre d’une recherche intervention et le point de vue des parties prenantes, à savoir les apprenants et les enseignants, était recueilli de façon qualitative. Les premiers, forts d’une expérience d’une session au niveau collégial, ont exprimé le besoin de suivre une formation formelle liée à la prise de notes, quand bien même celle-ci leur demanderait un effort supplémentaire. Les deuxièmes nous ont fait part de leurs préoccupations en ce qui a trait à la qualité des notes de leurs étudiants. Nous avons demandé aux répondants de restituer les thèmes principaux de deux textes équivalents distribués de façon simultanée en fonction des rangées (première rangée – premier texte, deuxième rangée – deuxième texte, etc.), puis nous avons interverti l’ordre de distribution des textes après l’atelier. Lors de l’analyse des résultats, nous avons constaté que les répondants avaient restitué les thèmes dans un ordre d’importance plus approprié après l’atelier qu’avant celui-ci, mais nous avons surtout remarqué une amélioration significative dans l’emploi des stratégies de prise de notes et dans la constance de leur utilisation tout au long du second texte étudié.
Resumo:
Content Based Image Retrieval is one of the prominent areas in Computer Vision and Image Processing. Recognition of handwritten characters has been a popular area of research for many years and still remains an open problem. The proposed system uses visual image queries for retrieving similar images from database of Malayalam handwritten characters. Local Binary Pattern (LBP) descriptors of the query images are extracted and those features are compared with the features of the images in database for retrieving desired characters. This system with local binary pattern gives excellent retrieval performance
Resumo:
Abstract: The paper describes an auditory interface using directional sound as a possible support for pilots during approach in an instrument landing scenario. Several ways of producing directional sounds are illustrated. One using speaker pairs and controlling power distribution between speakers is evaluated experimentally. Results show, that power alone is insufficient for positioning single isolated sound events, although discrimination in the horizontal plane performs better than in the vertical. Additional sound parameters to compensate for this are proposed.
Resumo:
In model-based vision, there are a huge number of possible ways to match model features to image features. In addition to model shape constraints, there are important match-independent constraints that can efficiently reduce the search without the combinatorics of matching. I demonstrate two specific modules in the context of a complete recognition system, Reggie. The first is a region-based grouping mechanism to find groups of image features that are likely to come from a single object. The second is an interpretive matching scheme to make explicit hypotheses about occlusion and instabilities in the image features.
Resumo:
We describe a method for modeling object classes (such as faces) using 2D example images and an algorithm for matching a model to a novel image. The object class models are "learned'' from example images that we call prototypes. In addition to the images, the pixelwise correspondences between a reference prototype and each of the other prototypes must also be provided. Thus a model consists of a linear combination of prototypical shapes and textures. A stochastic gradient descent algorithm is used to match a model to a novel image by minimizing the error between the model and the novel image. Example models are shown as well as example matches to novel images. The robustness of the matching algorithm is also evaluated. The technique can be used for a number of applications including the computation of correspondence between novel images of a certain known class, object recognition, image synthesis and image compression.