990 resultados para Perceptron à plusieurs couches
Resumo:
Les systèmes de traduction statistique à base de segments traduisent les phrases un segment à la fois, en plusieurs étapes. À chaque étape, ces systèmes ne considèrent que très peu d’informations pour choisir la traduction d’un segment. Les scores du dictionnaire de segments bilingues sont calculés sans égard aux contextes dans lesquels ils sont utilisés et les modèles de langue ne considèrent que les quelques mots entourant le segment traduit.Dans cette thèse, nous proposons un nouveau modèle considérant la phrase en entier lors de la sélection de chaque mot cible. Notre modèle d’intégration du contexte se différentie des précédents par l’utilisation d’un ppc (perceptron à plusieurs couches). Une propriété intéressante des ppc est leur couche cachée, qui propose une représentation alternative à celle offerte par les mots pour encoder les phrases à traduire. Une évaluation superficielle de cette représentation alter- native nous a montré qu’elle est capable de regrouper certaines phrases sources similaires même si elles étaient formulées différemment. Nous avons d’abord comparé avantageusement les prédictions de nos ppc à celles d’ibm1, un modèle couramment utilisé en traduction. Nous avons ensuite intégré nos ppc à notre système de traduction statistique de l’anglais vers le français. Nos ppc ont amélioré les traductions de notre système de base et d’un deuxième système de référence auquel était intégré IBM1.
Resumo:
Les avancés dans le domaine de l’intelligence artificielle, permettent à des systèmes informatiques de résoudre des tâches de plus en plus complexes liées par exemple à la vision, à la compréhension de signaux sonores ou au traitement de la langue. Parmi les modèles existants, on retrouve les Réseaux de Neurones Artificiels (RNA), dont la popularité a fait un grand bond en avant avec la découverte de Hinton et al. [22], soit l’utilisation de Machines de Boltzmann Restreintes (RBM) pour un pré-entraînement non-supervisé couche après couche, facilitant grandement l’entraînement supervisé du réseau à plusieurs couches cachées (DBN), entraînement qui s’avérait jusqu’alors très difficile à réussir. Depuis cette découverte, des chercheurs ont étudié l’efficacité de nouvelles stratégies de pré-entraînement, telles que l’empilement d’auto-encodeurs traditionnels(SAE) [5, 38], et l’empilement d’auto-encodeur débruiteur (SDAE) [44]. C’est dans ce contexte qu’a débuté la présente étude. Après un bref passage en revue des notions de base du domaine de l’apprentissage machine et des méthodes de pré-entraînement employées jusqu’à présent avec les modules RBM, AE et DAE, nous avons approfondi notre compréhension du pré-entraînement de type SDAE, exploré ses différentes propriétés et étudié des variantes de SDAE comme stratégie d’initialisation d’architecture profonde. Nous avons ainsi pu, entre autres choses, mettre en lumière l’influence du niveau de bruit, du nombre de couches et du nombre d’unités cachées sur l’erreur de généralisation du SDAE. Nous avons constaté une amélioration de la performance sur la tâche supervisée avec l’utilisation des bruits poivre et sel (PS) et gaussien (GS), bruits s’avérant mieux justifiés que celui utilisé jusqu’à présent, soit le masque à zéro (MN). De plus, nous avons démontré que la performance profitait d’une emphase imposée sur la reconstruction des données corrompues durant l’entraînement des différents DAE. Nos travaux ont aussi permis de révéler que le DAE était en mesure d’apprendre, sur des images naturelles, des filtres semblables à ceux retrouvés dans les cellules V1 du cortex visuel, soit des filtres détecteurs de bordures. Nous aurons par ailleurs pu montrer que les représentations apprises du SDAE, composées des caractéristiques ainsi extraites, s’avéraient fort utiles à l’apprentissage d’une machine à vecteurs de support (SVM) linéaire ou à noyau gaussien, améliorant grandement sa performance de généralisation. Aussi, nous aurons observé que similairement au DBN, et contrairement au SAE, le SDAE possédait une bonne capacité en tant que modèle générateur. Nous avons également ouvert la porte à de nouvelles stratégies de pré-entraînement et découvert le potentiel de l’une d’entre elles, soit l’empilement d’auto-encodeurs rebruiteurs (SRAE).
Resumo:
Cette thèse présente une théorie de la fonction formelle et de la structure des phrases dans la musique contemporaine, théorie qui peut être utilisée aussi bien comme outil analytique que pour créer de nouvelles œuvres. Deux concepts théoriques actuels aident à clarifier la structure des phrases : les projections temporelles de Christopher Hasty et la théorie des fonctions formelles de William Caplin, qui inclut le concept de l’organisation formelle soudée versus lâche (tight-knit vs. loose). Les projections temporelles sont perceptibles grâce à l’accent mis sur les paramètres secondaires, comme le style du jeu, l’articulation et le timbre. Des sections avec une organisation formelle soudée ont des projections temporelles claires, qui sont créées par la juxtaposition des motifs distincts, généralement sous la forme d'une idée de base en deux parties. Ces projections organisent la musique en phrases de présentation, en phrases de continuité et finalement, à des moments formels charnières, en phrases cadentielles. Les sections pourvues d’une organisation plus lâche tendent à présenter des projections et mouvements harmoniques moins clairs et moins d’uniformité motivique. La structure des phrases de trois pièces tardives pour instrument soliste de Pierre Boulez est analysée : Anthèmes I pour violon (1991-1992) et deux pièces pour piano, Incises (2001) et une page d’éphéméride (2005). Les idées proposées dans le présent document font suite à une analyse de ces œuvres et ont eu une forte influence sur mes propres compositions, en particulier Lucretia Overture pour orchestre et 4 Impromptus pour flûte, saxophone soprano et piano, qui sont également analysés en détail. Plusieurs techniques de composition supplémentaires peuvent être discernés dans ces deux œuvres, y compris l'utilisation de séquence mélodiques pour contrôler le rythme harmonique; des passages composés de plusieurs couches musicales chacun avec un structure de phrase distinct; et le relâchement de l'organisation formelle de matériels récurrents. Enfin, la composition de plusieurs autres travaux antérieurs a donné lieu à des techniques utilisées dans ces deux œuvres et ils sont brièvement abordés dans la section finale.
Resumo:
Cette thèse présente une théorie de la fonction formelle et de la structure des phrases dans la musique contemporaine, théorie qui peut être utilisée aussi bien comme outil analytique que pour créer de nouvelles œuvres. Deux concepts théoriques actuels aident à clarifier la structure des phrases : les projections temporelles de Christopher Hasty et la théorie des fonctions formelles de William Caplin, qui inclut le concept de l’organisation formelle soudée versus lâche (tight-knit vs. loose). Les projections temporelles sont perceptibles grâce à l’accent mis sur les paramètres secondaires, comme le style du jeu, l’articulation et le timbre. Des sections avec une organisation formelle soudée ont des projections temporelles claires, qui sont créées par la juxtaposition des motifs distincts, généralement sous la forme d'une idée de base en deux parties. Ces projections organisent la musique en phrases de présentation, en phrases de continuité et finalement, à des moments formels charnières, en phrases cadentielles. Les sections pourvues d’une organisation plus lâche tendent à présenter des projections et mouvements harmoniques moins clairs et moins d’uniformité motivique. La structure des phrases de trois pièces tardives pour instrument soliste de Pierre Boulez est analysée : Anthèmes I pour violon (1991-1992) et deux pièces pour piano, Incises (2001) et une page d’éphéméride (2005). Les idées proposées dans le présent document font suite à une analyse de ces œuvres et ont eu une forte influence sur mes propres compositions, en particulier Lucretia Overture pour orchestre et 4 Impromptus pour flûte, saxophone soprano et piano, qui sont également analysés en détail. Plusieurs techniques de composition supplémentaires peuvent être discernés dans ces deux œuvres, y compris l'utilisation de séquence mélodiques pour contrôler le rythme harmonique; des passages composés de plusieurs couches musicales chacun avec un structure de phrase distinct; et le relâchement de l'organisation formelle de matériels récurrents. Enfin, la composition de plusieurs autres travaux antérieurs a donné lieu à des techniques utilisées dans ces deux œuvres et ils sont brièvement abordés dans la section finale.
Resumo:
Le but de cette thèse était d’étudier la dynamique de croissance par pulvérisation par plasma RF magnétron des couches minces à base d’oxyde de zinc destinées à des applications électroniques, optoélectroniques et photoniques de pointe. Dans ce contexte, nous avons mis au point plusieurs diagnostics permettant de caractériser les espèces neutres et chargées dans ce type de plasmas, notamment la sonde électrostatique, la spectroscopie optique d’émission et d’absorption, ainsi que la spectrométrie de masse. Par la suite, nous avons tenté de corréler certaines caractéristiques physiques de croissance des couches de ZnO, en particulier la vitesse de dépôt, aux propriétés fondamentales du plasma. Nos résultats ont montré que l’éjection d’atomes de Zn, In et O au cours de la pulvérisation RF magnétron de cibles de Zn, ZnO et In2O3 n’influence que très peu la densité d’ions positifs (et donc la densité d’électrons en supposant la quasi-neutralité) ainsi que la fonction de distribution en énergie des électrons (populations de basse et haute énergie). Cependant, le rapport entre la densité d’atomes d’argon métastables (3P2) sur la densité électronique décroît lorsque la densité d’atomes de Zn augmente, un effet pouvant être attribué à l’ionisation des atomes de Zn par effet Penning. De plus, dans les conditions opératoires étudiées (plasmas de basse pression, < 100 mTorr), la thermalisation des atomes pulvérisés par collisions avec les atomes en phase gazeuse demeure incomplète. Nous avons montré que l’une des conséquences de ce résultat est la présence d’ions Zn+ suprathermiques près du substrat. Finalement, nous avons corrélé la quantité d’atomes de Zn pulvérisés déterminée par spectroscopie d’émission avec la vitesse de dépôt d’une couche mince de ZnO mesurée par ellipsométrie spectroscopique. Ces travaux ont permis de mettre en évidence que ce sont majoritairement les atomes de Zn (et non les espèces excitées et/ou ioniques) qui gouvernent la dynamique de croissance par pulvérisation RF magnétron des couches minces de ZnO.
Resumo:
3e sér. Géologie et paléontologie des couches à Avicula contorta en Lombardie comprenant des aperçus sur l'étage infraliasien en Lombardie et en Europe en général et deux monographies des fossiles appartenant à la zone supérieure et à la zone inférieure des couches à Avicula contorta en Lombardie, une note supplementaire et deux appendices, Sur l'infralias du versant N-O des Alpes et Sur les faunes aux limites supérieures et inférieures des couches à A. contorta, par A. Stoppani. 1860-65.--4e sér. Monograhie des fossiles du calcaire rouge ammonitique (lias supérieur) de Lombardie et de l'Apennin central, par J. Meneghini; Fossiles du Medolo, appendice. 1867-81.
Resumo:
Land cover (LC) changes play a major role in global as well as at regional scale patterns of the climate and biogeochemistry of the Earth system. LC information presents critical insights in understanding of Earth surface phenomena, particularly useful when obtained synoptically from remote sensing data. However, for developing countries and those with large geographical extent, regular LC mapping is prohibitive with data from commercial sensors (high cost factor) of limited spatial coverage (low temporal resolution and band swath). In this context, free MODIS data with good spectro-temporal resolution meet the purpose. LC mapping from these data has continuously evolved with advances in classification algorithms. This paper presents a comparative study of two robust data mining techniques, the multilayer perceptron (MLP) and decision tree (DT) on different products of MODIS data corresponding to Kolar district, Karnataka, India. The MODIS classified images when compared at three different spatial scales (at district level, taluk level and pixel level) shows that MLP based classification on minimum noise fraction components on MODIS 36 bands provide the most accurate LC mapping with 86% accuracy, while DT on MODIS 36 bands principal components leads to less accurate classification (69%).
Resumo:
Sub-pixel classification is essential for the successful description of many land cover (LC) features with spatial resolution less than the size of the image pixels. A commonly used approach for sub-pixel classification is linear mixture models (LMM). Even though, LMM have shown acceptable results, pragmatically, linear mixtures do not exist. A non-linear mixture model, therefore, may better describe the resultant mixture spectra for endmember (pure pixel) distribution. In this paper, we propose a new methodology for inferring LC fractions by a process called automatic linear-nonlinear mixture model (AL-NLMM). AL-NLMM is a three step process where the endmembers are first derived from an automated algorithm. These endmembers are used by the LMM in the second step that provides abundance estimation in a linear fashion. Finally, the abundance values along with the training samples representing the actual proportions are fed to multi-layer perceptron (MLP) architecture as input to train the neurons which further refines the abundance estimates to account for the non-linear nature of the mixing classes of interest. AL-NLMM is validated on computer simulated hyperspectral data of 200 bands. Validation of the output showed overall RMSE of 0.0089±0.0022 with LMM and 0.0030±0.0001 with the MLP based AL-NLMM, when compared to actual class proportions indicating that individual class abundances obtained from AL-NLMM are very close to the real observations.
Resumo:
Early illustrated book about fish, fishing and fisheries by one of the preeminent scientific investigators of the French enlightenment. This work deals extensively with the species of fish found in Europe and beyond, their habits and habitats, techniques and equipment used in fishing and fish processing, and many other aspects of these endeavours. Roughly 185 engraved plates illustrate the text. The scans for this version come from 3 volumes bound in two parts in folio.
Resumo:
Previous papers have noted the difficulty in obtaining neural models which are stable under simulation when trained using prediction-error-based methods. Here the differences between series-parallel and parallel identification structures for training neural models are investigated. The effect of the error surface shape on training convergence and simulation performance is analysed using a standard algorithm operating in both training modes. A combined series-parallel/parallel training scheme is proposed, aiming to provide a more effective means of obtaining accurate neural simulation models. Simulation examples show the combined scheme is advantageous in circumstances where the solution space is known or suspected to be complex. (c) 2006 Elsevier B.V. All rights reserved.
Resumo:
Les plus récentes études sur l'auteur se sont intéressées à plusieurs aspects de sa figure. Elles ont questionné ses représentations dans la fiction. Elles l'ont étudiée comme une fabrication du champ littéraire. Elles ont réfléchi aux croyances et aux mythes dont cette image est porteuse. Elles se sont penchées sur le rapport que les lecteurs entretiennent avec la biographie de l'auteur. Elles ont même cherché à comprendre à quelles conditions un individu en arrive à se dire écrivain. Aucune étude ne s'est toutefois intéressée à la conservation posthume des figures d'auteur par ces fascinants musées que constitue leur maison personnelle, lorsqu'elle est ouverte au public.Dans une perspective chronologique, le premier objectif de la Thèse consiste à situer et à comparer les maisons d'écrivains en France et au Québec. Dans une perspective synchronique, le deuxième objectif est d'étudier les représentations des écrivains que les maisons-musées véhiculent.L'ouverture des premières maisons d'hommes célèbres en Europe à la fin du XIXe siècle est tributaire du culte des grands hommes. La première partie de la Thèse est consacrée à ce phénomène, notamment étudié par Jean-Claude Bonnet. En France, les maisons-musées gagnent en popularité tout au long du XXe siècle et connaissent un âge d'or dans les années 1980 et 1990, sous le coup de politiques gouvernementales qui témoignent désormais d'une conception élargie de la culture. Au Québec, l'émergence du phénomène n'est pas beaucoup plus tardive, mais connait une expansion beaucoup moins importante. La deuxième partie de la Thèse s'intéresse aux politiques culturelles qui favorisent l'ouverture au public de maisons d'écrivains dans ces pays de la Francophonie. Elle présente également les monographies des six maisons d'écrivains qui composent le corpus restreint de la Thèse : en France, la Maison de Balzac à Paris, la Maison de Tante Léonie-Musée Marcel-Proust à Illiers-Combray et la Maison Elsa-Triolet-Aragon à Saint-Amoult-en-Yvelines; au Québec, la Maison Samuel-Bédard-Musée Louis-Hémon à Péribonka, l'Espace Félix-Leclerc à l'île d'Orléans et l'Espace Claude-Henri-Grignon à Saint-Jérome. Enfin, la troisième partie de la Thèse porte sur les représentations des écrivains dans les maisons d'écrivains, en s'intéressant à une particularité importante de ces lieux semi-privés et semi-publics : l'opposition entre familiarité et grandeur sur laquelle ils reposent.
Resumo:
The non-technical loss is not a problem with trivial solution or regional character and its minimization represents the guarantee of investments in product quality and maintenance of power systems, introduced by a competitive environment after the period of privatization in the national scene. In this paper, we show how to improve the training phase of a neural network-based classifier using a recently proposed meta-heuristic technique called Charged System Search, which is based on the interactions between electrically charged particles. The experiments were carried out in the context of non-technical loss in power distribution systems in a dataset obtained from a Brazilian electrical power company, and have demonstrated the robustness of the proposed technique against with several others natureinspired optimization techniques for training neural networks. Thus, it is possible to improve some applications on Smart Grids.