884 resultados para Computational Geometry and Object Modelling


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Robotic grasping has been studied increasingly for a few decades. While progress has been made in this field, robotic hands are still nowhere near the capability of human hands. However, in the past few years, the increase in computational power and the availability of commercial tactile sensors have made it easier to develop techniques that exploit the feedback from the hand itself, the sense of touch. The focus of this thesis lies in the use of this sense. The work described in this thesis focuses on robotic grasping from two different viewpoints: robotic systems and data-driven grasping. The robotic systems viewpoint describes a complete architecture for the act of grasping and, to a lesser extent, more general manipulation. Two central claims that the architecture was designed for are hardware independence and the use of sensors during grasping. These properties enables the use of multiple different robotic platforms within the architecture. Secondly, new data-driven methods are proposed that can be incorporated into the grasping process. The first of these methods is a novel way of learning grasp stability from the tactile and haptic feedback of the hand instead of analytically solving the stability from a set of known contacts between the hand and the object. By learning from the data directly, there is no need to know the properties of the hand, such as kinematics, enabling the method to be utilized with complex hands. The second novel method, probabilistic grasping, combines the fields of tactile exploration and grasp planning. By employing well-known statistical methods and pre-existing knowledge of an object, object properties, such as pose, can be inferred with related uncertainty. This uncertainty is utilized by a grasp planning process which plans for stable grasps under the inferred uncertainty.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The last decade has shown that the global paper industry needs new processes and products in order to reassert its position in the industry. As the paper markets in Western Europe and North America have stabilized, the competition has tightened. Along with the development of more cost-effective processes and products, new process design methods are also required to break the old molds and create new ideas. This thesis discusses the development of a process design methodology based on simulation and optimization methods. A bi-level optimization problem and a solution procedure for it are formulated and illustrated. Computational models and simulation are used to illustrate the phenomena inside a real process and mathematical optimization is exploited to find out the best process structures and control principles for the process. Dynamic process models are used inside the bi-level optimization problem, which is assumed to be dynamic and multiobjective due to the nature of papermaking processes. The numerical experiments show that the bi-level optimization approach is useful for different kinds of problems related to process design and optimization. Here, the design methodology is applied to a constrained process area of a papermaking line. However, the same methodology is applicable to all types of industrial processes, e.g., the design of biorefiners, because the methodology is totally generalized and can be easily modified.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Global illumination algorithms are at the center of realistic image synthesis and account for non-trivial light transport and occlusion within scenes, such as indirect illumination, ambient occlusion, and environment lighting. Their computationally most difficult part is determining light source visibility at each visible scene point. Height fields, on the other hand, constitute an important special case of geometry and are mainly used to describe certain types of objects such as terrains and to map detailed geometry onto object surfaces. The geometry of an entire scene can also be approximated by treating the distance values of its camera projection as a screen-space height field. In order to shadow height fields from environment lights a horizon map is usually used to occlude incident light. We reduce the per-receiver time complexity of generating the horizon map on N N height fields from O(N) of the previous work to O(1) by using an algorithm that incrementally traverses the height field and reuses the information already gathered along the path of traversal. We also propose an accurate method to integrate the incident light within the limits given by the horizon map. Indirect illumination in height fields requires information about which other points are visible to each height field point. We present an algorithm to determine this intervisibility in a time complexity that matches the space complexity of the produced visibility information, which is in contrast to previous methods which scale in the height field size. As a result the amount of computation is reduced by two orders of magnitude in common use cases. Screen-space ambient obscurance methods approximate ambient obscurance from the depth bu er geometry and have been widely adopted by contemporary real-time applications. They work by sampling the screen-space geometry around each receiver point but have been previously limited to near- field effects because sampling a large radius quickly exceeds the render time budget. We present an algorithm that reduces the quadratic per-pixel complexity of previous methods to a linear complexity by line sweeping over the depth bu er and maintaining an internal representation of the processed geometry from which occluders can be efficiently queried. Another algorithm is presented to determine ambient obscurance from the entire depth bu er at each screen pixel. The algorithm scans the depth bu er in a quick pre-pass and locates important features in it, which are then used to evaluate the ambient obscurance integral accurately. We also propose an evaluation of the integral such that results within a few percent of the ray traced screen-space reference are obtained at real-time render times.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Tässä työssä suunniteltiin lappeenrantalaisen Astex Oy:n tilauksesta liikkuvan työkoneen runkorakenne. Työ tehtiin Lappeenrannan teknillisen yliopiston teräsrakenteiden laboratoriossa. Suunniteltava rakenne kuului linkkuohjattuun, noin 5000 kg painoiseen trukkitraktoriin. Lähtökohtana rakenteen suunnittelulle olivat tilaajan asettamat rakenteen geometriaan ja suorituskykyyn liittyvät reunaehdot ja rajoitteet. Uuden rakenteen suunnittelussa hyödynnettiin myös tilaajatahon kehittelemää vastaavan tyyppistä prototyyppirakennetta. Rakenteen suunnitteluprosessi koostui neljästä eri vaiheesta. Suunniteltavan rakenteen lähtökohtana olleelle prototyyppirakenteelle suoritettiin koneen käytönaikaisia venymäliuskamittauksia rakenteen kuormitushistorian selvittämiseksi. Mittauksista saatujen tulosten perusteella määritettiin kuormitukset uudelle suunniteltavalle rakenteelle. Määritettyjä kuormituksia hyödyntäen ideoitiin, suunniteltiin ja mallinnettiin uusi tilaajan vaatimuksia vastaava rakenne. Uudelle rakenteelle suoritettiin lujuusanalyysit FE-analyysiä hyödyntäen. Uuden rakenteen suunnittelussa kiinnitettiin huomiota rakenteen hyvään valmistettavuuteen ja suunniteltiin rakenneratkaisut tilaajataholle mahdollisimman optimaalisiksi. Suunnittelu- ja mallinnustyö tehtiin Solidworks 2014 ohjelmistolla. Rakenteen lujuustekniset tarkastelut sisälsivät rakennedetaljien analyyttistä mitoitusta ja laskentaa. FE-laskennalla selvitettiin rakenteen ääri- ja väsymiskestävyys. Laskenta sisälsi koko rakenteen globaaleja tarkasteluja, sekä eri kriittisten rakennedetaljien yksityiskohtaisempia analyysejä. FE-laskennan pääpaino oli rakenteen väsymisanalyyseissä, jotka toteutettiin Hot-Spot- ja särönkasvumenetelmillä. Rakenteen FE-analyysien suorittamisessa käytettiin Femap, NxNastran ja Abaqus-ohjelmistoja.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This thesis concentrates on the validation of a generic thermal hydraulic computer code TRACE under the challenges of the VVER-440 reactor type. The code capability to model the VVER-440 geometry and thermal hydraulic phenomena specific to this reactor design has been examined and demonstrated acceptable. The main challenge in VVER-440 thermal hydraulics appeared in the modelling of the horizontal steam generator. The major challenge here is not in the code physics or numerics but in the formulation of a representative nodalization structure. Another VVER-440 specialty, the hot leg loop seals, challenges the system codes functionally in general, but proved readily representable. Computer code models have to be validated against experiments to achieve confidence in code models. When new computer code is to be used for nuclear power plant safety analysis, it must first be validated against a large variety of different experiments. The validation process has to cover both the code itself and the code input. Uncertainties of different nature are identified in the different phases of the validation procedure and can even be quantified. This thesis presents a novel approach to the input model validation and uncertainty evaluation in the different stages of the computer code validation procedure. This thesis also demonstrates that in the safety analysis, there are inevitably significant uncertainties that are not statistically quantifiable; they need to be and can be addressed by other, less simplistic means, ultimately relying on the competence of the analysts and the capability of the community to support the experimental verification of analytical assumptions. This method completes essentially the commonly used uncertainty assessment methods, which are usually conducted using only statistical methods.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The purpose of this study was to determine the effect that calculators have on the attitudes and numerical problem-solving skills of primary students. The sample used for this research was one of convenience. The sample consisted of two grade 3 classes within the York Region District School Board. The students in the experimental group used calculators for this problem-solving unit. The students in the control group completed the same numerical problem-solving unit without the use of calculators. The pretest-posttest control group design was used for this study. All students involved in this study completed a computational pretest and an attitude pretest. At the end of the study, the students completed a computational posttest. Five students from the experimental group and five students from the control group received their posttests in the form of a taped interview. At the end of the unit, all students completed the attitude scale that they had received before the numerical problem-solving unit once again. Data for qualitative analysis included anecdotal observations, journal entries, and transcribed interviews. The constant comparative method was used to analyze the qualitative data. A t test was also performed on the data to determine whether there were changes in test and attitude scores between the control and experimental group. Overall, the findings of this study support the hypothesis that calculators improve the attitudes of primary students toward mathematics. Also, there is some evidence to suggest that calculators improve the computational skills of grade 3 students.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The research undertaken was to obtain absolute Raman intensities for the symmetric stretching vibrations of the methyl halides, CH3X with (X=F, CI, Br), by experiment and theory. The intensities were experimentally measured using the Ar+ ion gas laser as excitation source, a Spex 14018 double monochromator and a RCA C-31034 photomultiplier tube as detector. These intensities arise from changes in the derivative of the polarizability (8 a'), with respect to vibration along a normal coordinate (8qi). It was intended that these derivatives obtained with respect to normal coordinates would be converted to derivatives with respect to internal coordinates, for a quantitative comparison with theory. Theoretical numerical polarizability derivatives for the stretching vibrations are obtained using the following procedure. A vibration was simulated in the molecule by increasi.ng and decreasing the respective bond by the amount ±o.oosA for the C-H bonds and ±o.oIA for the C-X (X=F, CI, Br) bond. The derivative was obtained by taking the difference in the polarizability for the equilibrium geometry and the geometry when a particular bond is changed. This difference, when divided by the amount of change in each bond and the number of bonds present results in the derivative of the polarizability with respect to internal coordinate i.e., !1u/!1r. These derivatives were obtained by two methods: I} ab initio molecular orbital calculation and 2} theory of atoms in molecules (AIM) analysis. Due to errors in the experimental setup only a qualitative analysis of the results was undertaken relative to the theory. Theoretically it is predicted that the symmetric carbonhalogen stretch vibrations are more intense than the respective carbon-hydrogen stretch, but only for the methyl chloride and bromide. The carbon fluorine stretch is less intense than the carbon-hydrogen stretch, a fact which is attributed to the small size and high electronegativity of the fluorine atom. The experimental observations are seen to agree qualitatively with the theory results. It is hoped that when the experiment is repeated, a quantitative comparison can be made. The analysis by the theory of atoms in molecules, along with providing polarizabilities and polarizability derivatives, gives additional information outlined below. The theory provides a pictorial description of the main factors contributing to the molecular polarizability and polarizability derivative. These contributions are from the charge transfer and atomic dipole terms i.e., transfer of charge from one atom to another and the reorganization of atomic electronic charge distribution due to presence of an electric field. The linear relationship between polarizability and molecular volume was also observed.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This thesis deals with the nature of ignorance as it was interpreted in the Upani~adic tradition, specifically in Advaita Vedanta, and in early and Mahayana Buddhism , e specially in the Madhyamika school of Buddhism. The approach i s a historical and comparative one. It examines the early thoughts of both the upanis.a ds and Buddhism abou t avidya (ignorance), shows how the notion was treated by the more speculative and philosphically oriented schools which base d themselves on the e arly works, and sees how their views differ. The thesis will show that the Vedinta tended to treat avidya as a topic for metaphysical s peculation as t he s chool developed, drifting from its initial e xistential concerns, while the Madhyamika remained in contact with the e xistential concerns evident in the first discourses of the Buddha. The word "notion" has been chosen for use in referring t o avidya, even though it may have non-intellectual and emotional connotations, to avoid more popular a lternatives such as "concept" or "idea". In neither the Upani,ads, Advaita Vedanta, or Buddhism is ignorance merely a concept or an idea. Only in a secondary sense, in texts and speech , does it become one. Avidya has more to do with the lived situation in which man finds himself, with the subjectobject separation in which he f eels he exists, than with i i i intel lect ual constr ucts . Western thought has begun to r ealize the same with concerns such as being in modern ontology, and has chosen to speak about i t i n terms of the question of being . Avidya, however, i s not a 'question' . If q ue stions we r e to be put regarding the nature of a vidya , they would be more of t he sort "What is not avidya?", though e ven here l anguage bestows a status t o i t which avidya does not have. In considering a work of the Eastern tradition, we f ace t he danger of imposing Western concepts on it. Granted t hat avidya is customari ly r endered i n English as ignorance, the ways i n which the East and West view i gno rance di f f er. Pedagogically , the European cultures, grounded in the ancient Greek culture, view ignorance as a l ack or an emptiness. A child is i gnorant o f certain t hings and the purpose o f f ormal education , in f act if not in theory, is to fill him with enough knowledge so that he can cope wit h t he complexities and the e xpectations of s ociety. On another level, we feel t hat study and research will l ead t o the discovery o f solutions, which we now lack , for problems now defying solut i on . The East, on the o t her hand, sees avidya in a d i fferent light.Ignorance isn't a lack, but a presence. Religious and philosophical l iterature directs its efforts not towards acquiring something new, but at removing t.he ideas and opinions that individuals have formed about themselves and the world. When that is fully accomplished, say the sages , t hen Wisdom, which has been obscured by those opinions, will present itself. Nothing new has to be learned, t hough we do have t o 'learn' that much. The growing interest in t he West with Eastern religions and philosophies may, in time, influence our theoretical and practical approaches to education and learning, not only in the established educati onal institutions, but in religious , p sychological, and spiritual activities as well. However, the requirements o f this thesis do no t permit a formulation of revolutionary method or a call to action. It focuses instead on the textual arguments which attempt to convince readers that t he world in which they take themselves to exist is not, in essence, real, on the ways i n which the l imitations of language are disclosed, and on the provisional and limited schemes that are built up to help students see through their ignorance. The metaphysic s are provisional because they act only as spurs and guides. Both the Upanisadic and Buddhist traditions that will be dealt with here stress that language constantly fails to encompass the Real. So even terms s uch as 'the Real', 'Absolute', etc., serve only to lead to a transcendent experience . The sections dealing with the Upanisads and Advaita Vedanta show some of the historical evolution of the notion of avidya, how it was dealt with as maya , and the q uestions that arose as t o its locus. With Gau?apada we see the beginnings of a more abstract treatment of the topic, and , the influence of Buddhism. Though Sankhara' S interest was primarily directed towards constructing a philosophy to help others attain mok~a ( l iberation), he too introduced t echnica l t e rminology not found in the works of his predecessors. His work is impressive , but areas of it are incomplete. Numbers of his followers tried to complete the systematic presentation of his insi ghts . Their work focuses on expl anat i ons of adhyasa (superimposition ) , t he locus and object of ignorance , and the means by which Brahman takes itself to be the jiva and the world. The section on early Buddhism examines avidya in the context o f the four truths, together with dubkha (suffering), the r ole it p l ays in t he chain of dependent c ausation , a nd t he p r oblems that arise with t he doctrine of anatman. With t he doct rines of e arly Buddhism as a base, the Madhyamika elaborated questions that the Buddha had said t e nded not t o edi f ication. One of these had to do with own - being or svabhava. Thi s serves a s a centr e around which a discussion o f i gnorance unfolds, both i ndividual and coll ective ignorance. There follows a treatment of the cessation of ignorance as it is discussed within this school . The final secti on tries to present t he similarities and differences i n the natures o f ignorance i n t he two traditions and discusses the factors responsible for t hem . ACKNOWLEDGEMENTS I would like to thank Dr. Sinha for the time spent II and suggestions made on the section dealing with Sankara and the Advait.a Vedanta oommentators, and Dr. Sprung, who supervised, direoted, corrected and encouraged the thesis as a whole, but especially the section on Madhyamika, and the final comparison.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Polyglutamine is a naturally occurring peptide found within several proteins in neuronal cells of the brain, and its aggregation has been implicated in several neurodegenerative diseases, including Huntington's disease. The resulting aggregates have been demonstrated to possess ~-sheet structure, and aggregation has been shown to start with a single misfolded peptide. The current project sought to computationally examine the structural tendencies of three mutant poly glutamine peptides that were studied experimentally, and found to aggregate with varying efficiencies. Low-energy structures were generated for each peptide by simulated annealing, and were analyzed quantitatively by various geometry- and energy-based methods. According to the results, the experimentally-observed inhibition of aggregation appears to be due to localized conformational restraint placed on the peptide backbone by inserted prolines, which in tum confines the peptide to native coil structure, discouraging transition towards the ~sheet structure required for aggregation. Such knowledge could prove quite useful to the design of future treatments for Huntington's and other related diseases.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The computational study, and in particular the density functional theory (DFT) study of the organocatalytic α-chlorination-aldol reaction and the chiral backbone Frustrated Lewis Pair (FLP) system served as a valuable tool for experimental purposes. This thesis describes methods to consider different transition states of the proline- catalyzed α-chlorination aldol reaction to determine the reasonable transition state in the reaction between the enamine and α-chloro aldehydes. Moreover, the novel intramolecular Frustrated Lewis pair based on a chiral backbone for the asymmetric hydrogenation of imines and enamines was designed and the ability of hydrogen splitting by this new FLP system was examined by computational modeling and calculating the hydrogen activation energy barrier.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Depuis l’introduction de la mécanique quantique, plusieurs mystères de la nature ont trouvé leurs explications. De plus en plus, les concepts de la mécanique quantique se sont entremêlés avec d’autres de la théorie de la complexité du calcul. De nouvelles idées et solutions ont été découvertes et élaborées dans le but de résoudre ces problèmes informatiques. En particulier, la mécanique quantique a secoué plusieurs preuves de sécurité de protocoles classiques. Dans ce m´emoire, nous faisons un étalage de résultats récents de l’implication de la mécanique quantique sur la complexité du calcul, et cela plus précisément dans le cas de classes avec interaction. Nous présentons ces travaux de recherches avec la nomenclature des jeux à information imparfaite avec coopération. Nous exposons les différences entre les théories classiques, quantiques et non-signalantes et les démontrons par l’exemple du jeu à cycle impair. Nous centralisons notre attention autour de deux grands thèmes : l’effet sur un jeu de l’ajout de joueurs et de la répétition parallèle. Nous observons que l’effet de ces modifications a des conséquences très différentes en fonction de la théorie physique considérée.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La thèse présente une description géométrique d’un germe de famille générique déployant un champ de vecteurs réel analytique avec un foyer faible à l’origine et son complexifié : le feuilletage holomorphe singulier associé. On montre que deux germes de telles familles sont orbitalement analytiquement équivalents si et seulement si les germes de familles de difféomorphismes déployant la complexification de leurs fonctions de retour de Poincaré sont conjuguées par une conjugaison analytique réelle. Le “caractère réel” de la famille correspond à sa Z2-équivariance dans R^4, et cela s’exprime comme l’invariance du plan réel sous le flot du système laquelle, à son tour, entraîne que l’expansion asymptotique de la fonction de Poincaré est réelle quand le paramètre est réel. Le pullback du plan réel après éclatement par la projection monoidal standard intersecte le feuilletage en une bande de Möbius réelle. La technique d’éclatement des singularités permet aussi de donner une réponse à la question de la “réalisation” d’un germe de famille déployant un germe de difféomorphisme avec un point fixe de multiplicateur égal à −1 et de codimension un comme application de semi-monodromie d’une famille générique déployant un foyer faible d’ordre un. Afin d’étudier l’espace des orbites de l’application de Poincaré, nous utilisons le point de vue de Glutsyuk, puisque la dynamique est linéarisable auprès des points singuliers : pour les valeurs réels du paramètre, notre démarche, classique, utilise une méthode géométrique, soit un changement de coordonée (coordonée “déroulante”) dans lequel la dynamique devient beaucoup plus simple. Mais le prix à payer est que la géométrie locale du plan complexe ambiante devient une surface de Riemann, sur laquelle deux notions de translation sont définies. Après avoir pris le quotient par le relèvement de la dynamique nous obtenons l’espace des orbites, ce qui s’avère être l’union de trois tores complexes plus les points singuliers (l’espace résultant est non-Hausdorff). Les translations, le caractère réel de l’application de Poincaré et le fait que cette application est un carré relient les différentes composantes du “module de Glutsyuk”. Cette propriété implique donc le fait qu’une seule composante de l’invariant Glutsyuk est indépendante.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les sociétés modernes dépendent de plus en plus sur les systèmes informatiques et ainsi, il y a de plus en plus de pression sur les équipes de développement pour produire des logiciels de bonne qualité. Plusieurs compagnies utilisent des modèles de qualité, des suites de programmes qui analysent et évaluent la qualité d'autres programmes, mais la construction de modèles de qualité est difficile parce qu'il existe plusieurs questions qui n'ont pas été répondues dans la littérature. Nous avons étudié les pratiques de modélisation de la qualité auprès d'une grande entreprise et avons identifié les trois dimensions où une recherche additionnelle est désirable : Le support de la subjectivité de la qualité, les techniques pour faire le suivi de la qualité lors de l'évolution des logiciels, et la composition de la qualité entre différents niveaux d'abstraction. Concernant la subjectivité, nous avons proposé l'utilisation de modèles bayésiens parce qu'ils sont capables de traiter des données ambiguës. Nous avons appliqué nos modèles au problème de la détection des défauts de conception. Dans une étude de deux logiciels libres, nous avons trouvé que notre approche est supérieure aux techniques décrites dans l'état de l'art, qui sont basées sur des règles. Pour supporter l'évolution des logiciels, nous avons considéré que les scores produits par un modèle de qualité sont des signaux qui peuvent être analysés en utilisant des techniques d'exploration de données pour identifier des patrons d'évolution de la qualité. Nous avons étudié comment les défauts de conception apparaissent et disparaissent des logiciels. Un logiciel est typiquement conçu comme une hiérarchie de composants, mais les modèles de qualité ne tiennent pas compte de cette organisation. Dans la dernière partie de la dissertation, nous présentons un modèle de qualité à deux niveaux. Ces modèles ont trois parties: un modèle au niveau du composant, un modèle qui évalue l'importance de chacun des composants, et un autre qui évalue la qualité d'un composé en combinant la qualité de ses composants. L'approche a été testée sur la prédiction de classes à fort changement à partir de la qualité des méthodes. Nous avons trouvé que nos modèles à deux niveaux permettent une meilleure identification des classes à fort changement. Pour terminer, nous avons appliqué nos modèles à deux niveaux pour l'évaluation de la navigabilité des sites web à partir de la qualité des pages. Nos modèles étaient capables de distinguer entre des sites de très bonne qualité et des sites choisis aléatoirement. Au cours de la dissertation, nous présentons non seulement des problèmes théoriques et leurs solutions, mais nous avons également mené des expériences pour démontrer les avantages et les limitations de nos solutions. Nos résultats indiquent qu'on peut espérer améliorer l'état de l'art dans les trois dimensions présentées. En particulier, notre travail sur la composition de la qualité et la modélisation de l'importance est le premier à cibler ce problème. Nous croyons que nos modèles à deux niveaux sont un point de départ intéressant pour des travaux de recherche plus approfondis.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ce mémoire de maîtrise présente une nouvelle approche non supervisée pour détecter et segmenter les régions urbaines dans les images hyperspectrales. La méthode proposée n ́ecessite trois étapes. Tout d’abord, afin de réduire le coût calculatoire de notre algorithme, une image couleur du contenu spectral est estimée. A cette fin, une étape de réduction de dimensionalité non-linéaire, basée sur deux critères complémentaires mais contradictoires de bonne visualisation; à savoir la précision et le contraste, est réalisée pour l’affichage couleur de chaque image hyperspectrale. Ensuite, pour discriminer les régions urbaines des régions non urbaines, la seconde étape consiste à extraire quelques caractéristiques discriminantes (et complémentaires) sur cette image hyperspectrale couleur. A cette fin, nous avons extrait une série de paramètres discriminants pour décrire les caractéristiques d’une zone urbaine, principalement composée d’objets manufacturés de formes simples g ́eométriques et régulières. Nous avons utilisé des caractéristiques texturales basées sur les niveaux de gris, la magnitude du gradient ou des paramètres issus de la matrice de co-occurrence combinés avec des caractéristiques structurelles basées sur l’orientation locale du gradient de l’image et la détection locale de segments de droites. Afin de réduire encore la complexité de calcul de notre approche et éviter le problème de la ”malédiction de la dimensionnalité” quand on décide de regrouper des données de dimensions élevées, nous avons décidé de classifier individuellement, dans la dernière étape, chaque caractéristique texturale ou structurelle avec une simple procédure de K-moyennes et ensuite de combiner ces segmentations grossières, obtenues à faible coût, avec un modèle efficace de fusion de cartes de segmentations. Les expérimentations données dans ce rapport montrent que cette stratégie est efficace visuellement et se compare favorablement aux autres méthodes de détection et segmentation de zones urbaines à partir d’images hyperspectrales.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'apprentissage profond est un domaine de recherche en forte croissance en apprentissage automatique qui est parvenu à des résultats impressionnants dans différentes tâches allant de la classification d'images à la parole, en passant par la modélisation du langage. Les réseaux de neurones récurrents, une sous-classe d'architecture profonde, s'avèrent particulièrement prometteurs. Les réseaux récurrents peuvent capter la structure temporelle dans les données. Ils ont potentiellement la capacité d'apprendre des corrélations entre des événements éloignés dans le temps et d'emmagasiner indéfiniment des informations dans leur mémoire interne. Dans ce travail, nous tentons d'abord de comprendre pourquoi la profondeur est utile. Similairement à d'autres travaux de la littérature, nos résultats démontrent que les modèles profonds peuvent être plus efficaces pour représenter certaines familles de fonctions comparativement aux modèles peu profonds. Contrairement à ces travaux, nous effectuons notre analyse théorique sur des réseaux profonds acycliques munis de fonctions d'activation linéaires par parties, puisque ce type de modèle est actuellement l'état de l'art dans différentes tâches de classification. La deuxième partie de cette thèse porte sur le processus d'apprentissage. Nous analysons quelques techniques d'optimisation proposées récemment, telles l'optimisation Hessian free, la descente de gradient naturel et la descente des sous-espaces de Krylov. Nous proposons le cadre théorique des méthodes à région de confiance généralisées et nous montrons que plusieurs de ces algorithmes développés récemment peuvent être vus dans cette perspective. Nous argumentons que certains membres de cette famille d'approches peuvent être mieux adaptés que d'autres à l'optimisation non convexe. La dernière partie de ce document se concentre sur les réseaux de neurones récurrents. Nous étudions d'abord le concept de mémoire et tentons de répondre aux questions suivantes: Les réseaux récurrents peuvent-ils démontrer une mémoire sans limite? Ce comportement peut-il être appris? Nous montrons que cela est possible si des indices sont fournis durant l'apprentissage. Ensuite, nous explorons deux problèmes spécifiques à l'entraînement des réseaux récurrents, à savoir la dissipation et l'explosion du gradient. Notre analyse se termine par une solution au problème d'explosion du gradient qui implique de borner la norme du gradient. Nous proposons également un terme de régularisation conçu spécifiquement pour réduire le problème de dissipation du gradient. Sur un ensemble de données synthétique, nous montrons empiriquement que ces mécanismes peuvent permettre aux réseaux récurrents d'apprendre de façon autonome à mémoriser des informations pour une période de temps indéfinie. Finalement, nous explorons la notion de profondeur dans les réseaux de neurones récurrents. Comparativement aux réseaux acycliques, la définition de profondeur dans les réseaux récurrents est souvent ambiguë. Nous proposons différentes façons d'ajouter de la profondeur dans les réseaux récurrents et nous évaluons empiriquement ces propositions.