99 resultados para Corrupted Diacritics:
Resumo:
Tietokoneiden vuosi vuodelta kasvanut prosessointikyky mahdollistaa spektrikuvien hyö- dyntämisen harmaasävy- ja RGB-värikuvien sijaan yhä useampien ongelmien ratkaisemi- sessa. Valitettavasti häiriöiden suodatuksen tutkimus on jäänyt jälkeen tästä kehityksestä. Useimmat menetelmät on testattu vain harmaasävy- tai RGB-värikuvien yhteydessä, mut- ta niiden toimivuutta ei ole testattu spektrikuvien suhteen. Tässä diplomityössä tutkitaan erilaisia menetelmiä bittivirheiden poistamisessa spektrikuvista. Uutena menetelmänä työssä käytetään kuutiomediaanisuodatinta ja monivaiheista kuutio- mediaanisuodatinta. Muita tutkittuja menetelmiä olivat vektorimediaanisuodatus, moni- vaiheinen vektorimediaanisuodatus, sekä rajattu keskiarvosuodatus. Kuutiosuodattimilla pyrittiin hyödyntämään spektrikuvien kaistojen välillä olevaa korrelaatiota ja niillä pääs- tiinkin kokonaisuuden kannalta parhaisiin tuloksiin. Kaikkien suodattimien toimintaa tutkittiin kahdella eri 224 komponenttisella spektriku- valla lisäämällä kuviin satunnaisia bittivirheitä.
Resumo:
Electroencephalographic (EEG) recordings are, most of the times, corrupted by spurious artifacts, which should be rejected or cleaned by the practitioner. As human scalp EEG screening is error-prone, automatic artifact detection is an issue of capital importance, to ensure objective and reliable results. In this paper we propose a new approach for discrimination of muscular activity in the human scalp quantitative EEG (QEEG), based on the time-frequency shape analysis. The impact of the muscular activity on the EEG can be evaluated from this methodology. We present an application of this scoring as a preprocessing step for EEG signal analysis, in order to evaluate the amount of muscular activity for two set of EEG recordings for dementia patients with early stage of Alzheimer’s disease and control age-matched subjects.
Resumo:
To develop systems in order to detect Alzheimer’s disease we want to use EEG signals. Available database is raw, so the first step must be to clean signals properly. We propose a new way of ICA cleaning on a database recorded from patients with Alzheimer's disease (mildAD, early stage). Two researchers visually inspected all the signals (EEG channels), and each recording's least corrupted (artefact-clean) continuous 20 sec interval were chosen for the analysis. Each trial was then decomposed using ICA. Sources were ordered using a kurtosis measure, and the researchers cleared up to seven sources per trial corresponding to artefacts (eye movements, EMG corruption, EKG, etc), using three criteria: (i) Isolated source on the scalp (only a few electrodes contribute to the source), (ii) Abnormal wave shape (drifts, eye blinks, sharp waves, etc.), (iii) Source of abnormally high amplitude ( �100 �V). We then evaluated the outcome of this cleaning by means of the classification of patients using multilayer perceptron neural networks. Results are very satisfactory and performance is increased from 50.9% to 73.1% correctly classified data using ICA cleaning procedure.
Resumo:
Chaotic behaviour is one of the hardest problems that can happen in nonlinear dynamical systems with severe nonlinearities. It makes the system's responses unpredictable. It makes the system's responses to behave similar to noise. In some applications it should be avoided. One of the approaches to detect the chaotic behaviour is nding the Lyapunov exponent through examining the dynamical equation of the system. It needs a model of the system. The goal of this study is the diagnosis of chaotic behaviour by just exploring the data (signal) without using any dynamical model of the system. In this work two methods are tested on the time series data collected from AMB (Active Magnetic Bearing) system sensors. The rst method is used to nd the largest Lyapunov exponent by Rosenstein method. The second method is a 0-1 test for identifying chaotic behaviour. These two methods are used to detect if the data is chaotic. By using Rosenstein method it is needed to nd the minimum embedding dimension. To nd the minimum embedding dimension Cao method is used. Cao method does not give just the minimum embedding dimension, it also gives the order of the nonlinear dynamical equation of the system and also it shows how the system's signals are corrupted with noise. At the end of this research a test called runs test is introduced to show that the data is not excessively noisy.
Resumo:
Cette étude porte sur la réfutation (elenchos) dans la République de Platon, et montre que la présence de cette méthode au livre I ne saurait être un signe de la rédaction antérieure de ce livre, ni de la volonté de Platon de critiquer cette forme de la dialectique. Les deux premiers chapitres traitent de l'aspect épistémologique de la question : le premier montre que l'exposition de la dialectique au livre VII inclut l'elenchos, et le second que la défaillance des arguments du livre I doit être interprétée par des motifs pédagogiques, et non par une intention satirique de l'auteur. Les deux derniers chapitres se penchent sur la dimension morale de l'elenchos. Ainsi, le troisième chapitre affirme que Platon nous présente, au livre I, l'elenchos comme un outil efficace d'éducation morale, tandis que le quatrième chapitre cherche à expliquer la critique morale de l'elenchos du livre VII par la différence entre l'éducation dans une cité parfaite et celle dans une société corrompue. La conclusion de l'ouvrage explique le délaissement de la méthode élenctique dans les neuf derniers livres de la République par des raisons autres que par la perte de confiance de Platon en les capacités de cette méthode.
Resumo:
Les avancés dans le domaine de l’intelligence artificielle, permettent à des systèmes informatiques de résoudre des tâches de plus en plus complexes liées par exemple à la vision, à la compréhension de signaux sonores ou au traitement de la langue. Parmi les modèles existants, on retrouve les Réseaux de Neurones Artificiels (RNA), dont la popularité a fait un grand bond en avant avec la découverte de Hinton et al. [22], soit l’utilisation de Machines de Boltzmann Restreintes (RBM) pour un pré-entraînement non-supervisé couche après couche, facilitant grandement l’entraînement supervisé du réseau à plusieurs couches cachées (DBN), entraînement qui s’avérait jusqu’alors très difficile à réussir. Depuis cette découverte, des chercheurs ont étudié l’efficacité de nouvelles stratégies de pré-entraînement, telles que l’empilement d’auto-encodeurs traditionnels(SAE) [5, 38], et l’empilement d’auto-encodeur débruiteur (SDAE) [44]. C’est dans ce contexte qu’a débuté la présente étude. Après un bref passage en revue des notions de base du domaine de l’apprentissage machine et des méthodes de pré-entraînement employées jusqu’à présent avec les modules RBM, AE et DAE, nous avons approfondi notre compréhension du pré-entraînement de type SDAE, exploré ses différentes propriétés et étudié des variantes de SDAE comme stratégie d’initialisation d’architecture profonde. Nous avons ainsi pu, entre autres choses, mettre en lumière l’influence du niveau de bruit, du nombre de couches et du nombre d’unités cachées sur l’erreur de généralisation du SDAE. Nous avons constaté une amélioration de la performance sur la tâche supervisée avec l’utilisation des bruits poivre et sel (PS) et gaussien (GS), bruits s’avérant mieux justifiés que celui utilisé jusqu’à présent, soit le masque à zéro (MN). De plus, nous avons démontré que la performance profitait d’une emphase imposée sur la reconstruction des données corrompues durant l’entraînement des différents DAE. Nos travaux ont aussi permis de révéler que le DAE était en mesure d’apprendre, sur des images naturelles, des filtres semblables à ceux retrouvés dans les cellules V1 du cortex visuel, soit des filtres détecteurs de bordures. Nous aurons par ailleurs pu montrer que les représentations apprises du SDAE, composées des caractéristiques ainsi extraites, s’avéraient fort utiles à l’apprentissage d’une machine à vecteurs de support (SVM) linéaire ou à noyau gaussien, améliorant grandement sa performance de généralisation. Aussi, nous aurons observé que similairement au DBN, et contrairement au SAE, le SDAE possédait une bonne capacité en tant que modèle générateur. Nous avons également ouvert la porte à de nouvelles stratégies de pré-entraînement et découvert le potentiel de l’une d’entre elles, soit l’empilement d’auto-encodeurs rebruiteurs (SRAE).
D'objet de risée à symbole de l'Amérique : la télévision à travers le cinéma américain (1970 à 1999)
Resumo:
Cette analyse dresse le portrait des différentes représentations de la télévision à travers le cinéma américain de 1970 à 1999. Ce travail porte sur un corpus de quatorze films et s’intéresse à quatre dimensions de la télévision : l’appareil électrique, le téléspectateur, le contenu et l’univers professionnel. Les hypothèses soulevées sont que la télévision est majoritairement présentée de façon négative, que les représentations s’inscrivent dans un contexte culturel précis et qu’il y a un consensus entre les écrits universitaires et les cinéastes au sujet de l’écran cathodique. Bien que certaines critiques soient récurrentes d’une décennie à l’autre, il y a une évolution des représentations. Dans les années 1970, la télévision est un objet de risée. Son contenu est caricaturé et les professionnels qui travaillent pour la télévision sont personnifiés comme des êtres incompétents. Dans les années 1980, le petit écran est montré comme un objet dangereux. Sa très grande popularité en ferait un puissant diffuseur idéologique qui transforme tout en spectacle même la mort. Cette même popularité servira de prétexte aux cinéastes des années 1990 pour utiliser la télévision comme symbole de l’Amérique. Le portrait est peu flatteur : une Amérique corrompue, violente et en manque d’idéaux. Cette analyse montre également qu’au fil des décennies, les mêmes idées circulent entre cinéastes et penseurs américains. Enfin, cette attitude par rapport à la télévision est d’ailleurs symptomatique d’un mépris de l’élite intellectuel envers l’art populaire.
Resumo:
La figure du législateur demeure matière à controverse dans la pensée politique de Jean-Jacques Rousseau. Son rôle, consistant à « transformer » la nature humaine en vue de réaliser la vertu civique, a porté certains interprètes à voir dans sa pensée une forme d’autoritarisme. L'erreur de cette interprétation nous apparaît être dans le sens et la portée attribués à l'idée de transformation morale. Cette dernière n'implique pas une transformation radicale des mœurs, mais bien leur parachèvement. Circonscrire cette portée nécessite de concevoir les mœurs comme une matière donnée et qui ne saurait être façonnée indéfiniment, car ses potentialités sont déterminées par son développement historique. Ce caractère décisif attribué par Rousseau au développement historique peut se comprendre à la lumière de sa conception pessimiste de l’évolution des mœurs. D’après cette conception, les mœurs, essentiellement corruptibles, atteignent un stade historique de corruption où elles ne sauraient être parachevées en vertu. Il s’ensuit que seul un peuple dont les mœurs sont non corrompues par le progrès historique a la potentialité d'atteindre la vertu. Ainsi, la tâche du législateur d'effectuer une transformation morale de l'homme doit être entendue non comme celle de créer ex nihilo une nouvelle nature humaine, mais comme celle de parachever les virtualités propres aux mœurs saines.
Resumo:
L’apprentissage machine est un vaste domaine où l’on cherche à apprendre les paramètres de modèles à partir de données concrètes. Ce sera pour effectuer des tâches demandant des aptitudes attribuées à l’intelligence humaine, comme la capacité à traiter des don- nées de haute dimensionnalité présentant beaucoup de variations. Les réseaux de neu- rones artificiels sont un exemple de tels modèles. Dans certains réseaux de neurones dits profonds, des concepts "abstraits" sont appris automatiquement. Les travaux présentés ici prennent leur inspiration de réseaux de neurones profonds, de réseaux récurrents et de neuroscience du système visuel. Nos tâches de test sont la classification et le débruitement d’images quasi binaires. On permettra une rétroac- tion où des représentations de haut niveau (plus "abstraites") influencent des représentations à bas niveau. Cette influence s’effectuera au cours de ce qu’on nomme relaxation, des itérations où les différents niveaux (ou couches) du modèle s’interinfluencent. Nous présentons deux familles d’architectures, l’une, l’architecture complètement connectée, pouvant en principe traiter des données générales et une autre, l’architecture convolutionnelle, plus spécifiquement adaptée aux images. Dans tous les cas, les données utilisées sont des images, principalement des images de chiffres manuscrits. Dans un type d’expérience, nous cherchons à reconstruire des données qui ont été corrompues. On a pu y observer le phénomène d’influence décrit précédemment en comparant le résultat avec et sans la relaxation. On note aussi certains gains numériques et visuels en terme de performance de reconstruction en ajoutant l’influence des couches supérieures. Dans un autre type de tâche, la classification, peu de gains ont été observés. On a tout de même pu constater que dans certains cas la relaxation aiderait à apprendre des représentations utiles pour classifier des images corrompues. L’architecture convolutionnelle développée, plus incertaine au départ, permet malgré tout d’obtenir des reconstructions numériquement et visuellement semblables à celles obtenues avec l’autre architecture, même si sa connectivité est contrainte.
Resumo:
Une des caractéristiques fondamentales des policiers et des agents correctionnels est le recours légitime à la coercition pour imposer leur autorité. Cette force publique doit donc, en théorie, avoir le dessus sur toute forme de force privée. Dans l’étude des phénomènes de violence, cette caractéristique rend leur victimisation singulière. À ce jour, les formes d’influence, de pressions indues et d’intimidation vécus par les agents de la force publique demeurent relativement peu étudiées. Les objectifs de cette thèse sont d’améliorer notre compréhension des dynamiques d’intimidation, de soulever les différents enjeux pour la force publique et de proposer une théorie de l’intimidation criminelle. La force publique étant, avant toute chose, une émanation de l’État, nous avons commencé par analyser la problématique de l’intimidation criminelle de manière plus globale. En testant la théorie de l’action de sécurité (Cusson, 2010), nous avons constaté qu’une force publique intimidée et corrompue entraîne une perte de légitimité et une inefficacité du système judiciaire dans sa lutte contre la criminalité. Nous avons ensuite adopté une perspective interactionniste pour comprendre les dynamiques d’intimidation au quotidien. Nous nous sommes demandés quels étaient les éléments qui rendaient une intimidation crédible et grave pour les policiers. En identifiant leur monde d’objets (Blumer, 1986), nous avons constaté que les actes d’intimidation qui survenaient en dehors du cadre professionnel étaient jugés plus graves par les policiers et que l’appartenance de l’intimidateur à une organisation criminelle entraînait une augmentation de la gravité de la menace. Ensuite, nous nous sommes interrogés sur la notion d’identité sociale des agents correctionnels victimes d’intimidation (Tedeschi et Felson, 1994). Nous avons constaté que les intimidations mineures mais répétées avaient tendance à modifier les pratiques professionnelles des surveillants. Une analyse intégrée de ces perspectives met en lumière l’existence de deux formes d’intimidation : une intimidation réactive et peu sévère en nature et une intimidation planifiée et grave. Elle soulève également trois enjeux pour la force publique : son aspect symbolique, la transformation de son action et sa légitimité. En intégrant ces enjeux, une théorie de l’intimidation criminelle est proposée. En dernier lieu, des solutions préventives et répressives sont avancées pour lutter contre ce phénomène.
Resumo:
En continuité avec les ouvrages récents (Veyne 1981, MacMullen 1988 et Kelly 2004) qui tentent de relativiser les effets néfastes de la corruption lors du Bas-Empire, ce travail étudie le suffragium, le processus de nomination des fonctionnaires de bureaux, afin d'évaluer comment les acteurs sociaux du IVe siècle considéraient ce phénomène. Ce système, organisé d'une telle façon que les hauts fonctionnaires devaient fournir des lettres de recommandation aux candidats postulant à des postes au sein de la fonction publique, serait devenu complètement corrompu durant le IVe siècle et les lettres de recommandation auraient commencé à être systématiquement vendues. Pourtant, les lois de Constantin, Constance et Julien ne fournissent aucune preuve tangible que le suffragium était dans tous le cas vénal à cette époque. Bien au contraire, les empereurs ajoutaient la plupart de temps des épithètes au terme suffragium pour spécifier qu'il parle du suffragium vénal. Généralement, les empereurs sont présentés comme farouchement opposés au suffragium et à toutes les tractations qui y sont attachées. Loin d'être aussi hostiles envers les « pratiques corrompues », les empereurs de la dynastie constantinienne firent preuve d'un certain pragmatisme en voyant qu'ils ne pouvaient contrôler toutes les nominations de ceux qui voulaient entrer dans la fonction publique et que ce n'était pas nécessairement à leur avantage de le faire. Les empereurs se concentrèrent plutôt sur les restrictions entourant les promotions afin de faire en sorte que les personnes qui avaient de réels pouvoirs soient celles qui avaient démontré leurs qualités tout au long de leurs années de service. Bien qu'ils n'aient pas concrètement légiféré sur les critères d'embauche des candidats, cela ne veut pas dire que n'importe qui pouvait obtenir un poste. À travers l'étude des lettres de Libanios et de Symmaque, ce travail démontre que les hauts fonctionnaires ne fournissaient pas de lettres à quiconque le demandait, puisque leur réputation pouvait être entachée par le fait d'avoir recommandé un mauvais candidat à un de leurs amis. Les hauts fonctionnaires qui recevaient les recommandations pouvaient également soumettre les candidats à des examens afin d'être certains de la qualité de l'individu. Ce système officieux de contrôle des candidats vint pallier, en partie, les déficits de la législation impériale. Conjointement, la loi et les usages permirent à l'administration de fonctionner en lui fournissant des candidats qui répondaient aux critères de l'époque.
Resumo:
The aim of the thesis was to design and develop spatially adaptive denoising techniques with edge and feature preservation, for images corrupted with additive white Gaussian noise and SAR images affected with speckle noise. Image denoising is a well researched topic. It has found multifaceted applications in our day to day life. Image denoising based on multi resolution analysis using wavelet transform has received considerable attention in recent years. The directionlet based denoising schemes presented in this thesis are effective in preserving the image specific features like edges and contours in denoising. Scope of this research is still open in areas like further optimization in terms of speed and extension of the techniques to other related areas like colour and video image denoising. Such studies would further augment the practical use of these techniques.
Resumo:
Flooding is a major hazard in both rural and urban areas worldwide, but it is in urban areas that the impacts are most severe. An investigation of the ability of high resolution TerraSAR-X data to detect flooded regions in urban areas is described. An important application for this would be the calibration and validation of the flood extent predicted by an urban flood inundation model. To date, research on such models has been hampered by lack of suitable distributed validation data. The study uses a 3m resolution TerraSAR-X image of a 1-in-150 year flood near Tewkesbury, UK, in 2007, for which contemporaneous aerial photography exists for validation. The DLR SETES SAR simulator was used in conjunction with airborne LiDAR data to estimate regions of the TerraSAR-X image in which water would not be visible due to radar shadow or layover caused by buildings and taller vegetation, and these regions were masked out in the flood detection process. A semi-automatic algorithm for the detection of floodwater was developed, based on a hybrid approach. Flooding in rural areas adjacent to the urban areas was detected using an active contour model (snake) region-growing algorithm seeded using the un-flooded river channel network, which was applied to the TerraSAR-X image fused with the LiDAR DTM to ensure the smooth variation of heights along the reach. A simpler region-growing approach was used in the urban areas, which was initialized using knowledge of the flood waterline in the rural areas. Seed pixels having low backscatter were identified in the urban areas using supervised classification based on training areas for water taken from the rural flood, and non-water taken from the higher urban areas. Seed pixels were required to have heights less than a spatially-varying height threshold determined from nearby rural waterline heights. Seed pixels were clustered into urban flood regions based on their close proximity, rather than requiring that all pixels in the region should have low backscatter. This approach was taken because it appeared that urban water backscatter values were corrupted in some pixels, perhaps due to contributions from side-lobes of strong reflectors nearby. The TerraSAR-X urban flood extent was validated using the flood extent visible in the aerial photos. It turned out that 76% of the urban water pixels visible to TerraSAR-X were correctly detected, with an associated false positive rate of 25%. If all urban water pixels were considered, including those in shadow and layover regions, these figures fell to 58% and 19% respectively. These findings indicate that TerraSAR-X is capable of providing useful data for the calibration and validation of urban flood inundation models.
Resumo:
In 2003, through a conference presentation in Vancouver and a series of exchanges with Lemon, Leonidas convinced Adobe to substantially extend the coverage of the Greek script in forthcoming Adobe typefaces. The revised brief for Garamond was extended to include, for the first time in a digital typeface, extensive polytonic support, full archaic characters, and small capitals with optional polytonic diacritics; these features should be implemented with respect for the Greek language’s complex rules for case conversion, allowing full dictionary support regardless of the features applied. This project was the first where these issues were addressed, both from a documentation and a development point of view. Leonidas’ responsibilities lay with researching historical and current conventions, developing specifications for the appearance and behaviour of the typefaces, editing glyph outlines, and testing of development versions.
Resumo:
The problem of a manipulator operating in a noisy workspace and required to move from an initial fixed position P0 to a final position Pf is considered. However, Pf is corrupted by noise, giving rise to Pˆf, which may be obtained by sensors. The use of learning automata is proposed to tackle this problem. An automaton is placed at each joint of the manipulator which moves according to the action chosen by the automaton (forward, backward, stationary) at each instant. The simultaneous reward or penalty of the automata enables avoiding any inverse kinematics computations that would be necessary if the distance of each joint from the final position had to be calculated. Three variable-structure learning algorithms are used, i.e., the discretized linear reward-penalty (DLR-P, the linear reward-penalty (LR-P ) and a nonlinear scheme. Each algorithm is separately tested with two (forward, backward) and three forward, backward, stationary) actions.