994 resultados para Symbolic Data


Relevância:

70.00% 70.00%

Publicador:

Resumo:

This journal provides immediate open access to its content on the principle that making research freely available to the public supports a greater global exchange of knowledge.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

This article is is licensed under a Creative Commons Attribution-NonCommercial 4.0 International License. Attribution-NonCommercial (CC BY-NC) license lets others remix, tweak, and build upon work non-commercially, and although the new works must also acknowledge & be non-commercial.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

3rd SMTDA Conference Proceedings, 11-14 June 2014, Lisbon Portugal.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

3rd SMTDA Conference Proceedings, 11-14 June 2014, Lisbon Portugal.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

This is an open access article distributed under the Creative Commons Attribution License, which permits unrestricted use, distribution, and reproduction in any medium, provided the original work is properly cited.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Automatic classification of makams from symbolic data is a rarely studied topic. In this paper, first a review of an n-gram based approach is presented using various representations of the symbolic data. While a high degree of precision can be obtained, confusion happens mainly for makams using (almost) the same scale and pitch hierarchy but differ in overall melodic progression, seyir. To further improve the system, first n-gram based classification is tested for various sections of the piece to take into account a feature of the seyir that melodic progression starts in a certain region of the scale. In a second test, a hierarchical classification structure is designed which uses n-grams and seyir features in different levels to further improve the system.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

The proposal presented in this thesis is to provide designers of knowledge based supervisory systems of dynamic systems with a framework to facilitate their tasks avoiding interface problems among tools, data flow and management. The approach is thought to be useful to both control and process engineers in assisting their tasks. The use of AI technologies to diagnose and perform control loops and, of course, assist process supervisory tasks such as fault detection and diagnose, are in the scope of this work. Special effort has been put in integration of tools for assisting expert supervisory systems design. With this aim the experience of Computer Aided Control Systems Design (CACSD) frameworks have been analysed and used to design a Computer Aided Supervisory Systems (CASSD) framework. In this sense, some basic facilities are required to be available in this proposed framework: ·

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Inverse problems for dynamical system models of cognitive processes comprise the determination of synaptic weight matrices or kernel functions for neural networks or neural/dynamic field models, respectively. We introduce dynamic cognitive modeling as a three tier top-down approach where cognitive processes are first described as algorithms that operate on complex symbolic data structures. Second, symbolic expressions and operations are represented by states and transformations in abstract vector spaces. Third, prescribed trajectories through representation space are implemented in neurodynamical systems. We discuss the Amari equation for a neural/dynamic field theory as a special case and show that the kernel construction problem is particularly ill-posed. We suggest a Tikhonov-Hebbian learning method as regularization technique and demonstrate its validity and robustness for basic examples of cognitive computations.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Symbolic Data Analysis (SDA) main aims to provide tools for reducing large databases to extract knowledge and provide techniques to describe the unit of such data in complex units, as such, interval or histogram. The objective of this work is to extend classical clustering methods for symbolic interval data based on interval-based distance. The main advantage of using an interval-based distance for interval-based data lies on the fact that it preserves the underlying imprecision on intervals which is usually lost when real-valued distances are applied. This work includes an approach allow existing indices to be adapted to interval context. The proposed methods with interval-based distances are compared with distances punctual existing literature through experiments with simulated data and real data interval

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Esta dissertação apresenta os principais aspectos da Teoria dos Jogos, mostrando sua aplicação como instrumento analítico na Gestão de Pessoas no que diz respeito à variável salário. Considera a organização e o trabalhador como conceitos gerais, sem identificar o setor de atuação, ramo de atividade, classificação jurídica em função do seu faturamento, total de empregados ou participação de mercado dessa organização. Da mesma forma o conceito trabalhador não recebe qualquer identificação em relação ao setor de atividade onde trabalha, função, salário ou formação profissional. A organização é toda estrutura que gera bens e serviços para a sociedade e o trabalhador é todo elemento que emprega sua força de trabalho na produção de bens e serviços. Os objetivos estabelecidos para este estudo são: identificar as possibilidades de aplicação da Teoria dos Jogos na Gestão de Pessoas considerando a variável salário como elemento de conflito entre a organização e o trabalhador; mostrar se a forma de representação extensiva é mais apropriada ou não para analisar o cenário de embate na decisão de contratar ou não o trabalhador ou pagar mais ou menos salário e a existência do Equilíbrio de Nash. A metodologia qualitativa com apoio bibliográfico e documental caracteriza esta pesquisa qualitativa quanto a metodologia de pesquisa. Os métodos qualitativos contribuem para interpretar fenômenos do cotidiano, podendo ser composto por dados simbólicos situados em determinado contexto. A pesquisa documental é uma contribuição importante ao estudo do tema proposto, já que a pesquisa qualitativa não é uma proposta rigidamente estruturada e isto permite que o pesquisador use a imaginação e criatividade para atingir o objetivo. Os resultados obtidos pela pesquisa dão conta de que é possível a aplicação da Teoria dos Jogos na Gestão de Pessoas considerando o embate entre os jogadores (o trabalhador e a organização) em torno do salário, discutido no capítulo 4 nas representações da matriz de payoff de um jogo estratégico e nas figuras 9,10,11,e 16. A representação na forma extensiva, outro objetivo, indicando os payoffs entre duas decisões centrais representadas por X = flexibilização com renúncia dos direitos pelos trabalhadores e Y = flexibilização/adaptação/negociação, conforme figura 16. O gestor de pessoas percebe as estratégias existentes para a organização e trabalhador para a tomada de decisão, ao mesmo tempo em que pode avaliar a situação que esteja vivendo e fazer simulações em busca de novas propostas. Por fim, o Equilíbrio de Nash para a aplicação na Gestão de Pessoas é discutido no item 4.1.3, sendo possível verificar que tanto o trabalhador como a organização podem chegar a uma decisão favorável para ambos e manter seus objetivos pretendidos inicialmente. Na figura 17, esse equilíbrio é apresentado depois da tomada de decisão do trabalhador pela proposta feita pela organização na sequência O2 e o trabalhador ficou com o ramo de sequência T2 com o valor de 20 moedas. A potencialidade da Teoria dos Jogos na Gestão de Pessoas está no fato de que quem atua em uma organização compartilha resultados bons ou ruins obtidos pelas escolhas alheias, individuais e construídas coletivamente.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Esta dissertação apresenta os principais aspectos da Teoria dos Jogos, mostrando sua aplicação como instrumento analítico na Gestão de Pessoas no que diz respeito à variável salário. Considera a organização e o trabalhador como conceitos gerais, sem identificar o setor de atuação, ramo de atividade, classificação jurídica em função do seu faturamento, total de empregados ou participação de mercado dessa organização. Da mesma forma o conceito trabalhador não recebe qualquer identificação em relação ao setor de atividade onde trabalha, função, salário ou formação profissional. A organização é toda estrutura que gera bens e serviços para a sociedade e o trabalhador é todo elemento que emprega sua força de trabalho na produção de bens e serviços. Os objetivos estabelecidos para este estudo são: identificar as possibilidades de aplicação da Teoria dos Jogos na Gestão de Pessoas considerando a variável salário como elemento de conflito entre a organização e o trabalhador; mostrar se a forma de representação extensiva é mais apropriada ou não para analisar o cenário de embate na decisão de contratar ou não o trabalhador ou pagar mais ou menos salário e a existência do Equilíbrio de Nash. A metodologia qualitativa com apoio bibliográfico e documental caracteriza esta pesquisa qualitativa quanto a metodologia de pesquisa. Os métodos qualitativos contribuem para interpretar fenômenos do cotidiano, podendo ser composto por dados simbólicos situados em determinado contexto. A pesquisa documental é uma contribuição importante ao estudo do tema proposto, já que a pesquisa qualitativa não é uma proposta rigidamente estruturada e isto permite que o pesquisador use a imaginação e criatividade para atingir o objetivo. Os resultados obtidos pela pesquisa dão conta de que é possível a aplicação da Teoria dos Jogos na Gestão de Pessoas considerando o embate entre os jogadores (o trabalhador e a organização) em torno do salário, conforme pode ser visto no capítulo 4 nas representações da matriz de payoff de um jogo estratégico e nas figuras 9,10,11,e 16. A representação na forma extensiva, constitui outro objetivo, indicando os payoffs entre duas decisões centrais representadas por X = flexibilização com renúncia dos direitos pelos trabalhadores e Y = flexibilização/adaptação/negociação, conforme figura 16. Ao analisar a figura, o gestor de pessoas percebe as estratégias existentes para a organização e trabalhador para a tomada de decisão, ao mesmo tempo em que pode avaliar a situação que esteja vivendo e fazer simulações em busca de novas propostas. Por fim, o Equilíbrio de Nash para a aplicação na Gestão de Pessoas é discutido no item 4.1.3, sendo possível verificar que tanto o trabalhador como a organização podem chegar a uma decisão favorável para ambos e manter seus objetivos pretendidos inicialmente. Na figura 17, esse equilíbrio é apresentado depois da tomada de decisão do trabalhador pela proposta feita pela organização na sequência O2 e o trabalhador ficou com o ramo de sequência T2 com o valor de 20 moedas. A potencialidade da Teoria dos Jogos na Gestão de Pessoas surge do fato de que quem atua em uma organização compartilha resultados bons ou ruins obtidos pelas escolhas alheias, escolhas individuais e pelas escolhas construídas coletivamente. Quando o trabalhador resolve produzir menos, a empresa sofre com a perda do lucro gerado pelo ritmo mais lento de trabalho. Para mudar esse quadro, a empresa toma a decisão de aumentar o salário e o trabalhador por sua vez desenvolve a tarefa com maior velocidade e em maior quantidade e ela pode retomar o seu lucro. Nesses jogos há cobranças de desempenho, exigência para atingir metas, pressões, conflitos com clientes e lideranças. Logo, a Teoria dos Jogos pode ser aplicada como instrumento para o gestor de Pessoas avaliar a situação vivida para a tomada de decisão que resolva a situação de embate.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This work describes a methodology to extract symbolic rules from trained neural networks. In our approach, patterns on the network are codified using formulas on a Lukasiewicz logic. For this we take advantage of the fact that every connective in this multi-valued logic can be evaluated by a neuron in an artificial network having, by activation function the identity truncated to zero and one. This fact simplifies symbolic rule extraction and allows the easy injection of formulas into a network architecture. We trained this type of neural network using a back-propagation algorithm based on Levenderg-Marquardt algorithm, where in each learning iteration, we restricted the knowledge dissemination in the network structure. This makes the descriptive power of produced neural networks similar to the descriptive power of Lukasiewicz logic language, minimizing the information loss on the translation between connectionist and symbolic structures. To avoid redundance on the generated network, the method simplifies them in a pruning phase, using the "Optimal Brain Surgeon" algorithm. We tested this method on the task of finding the formula used on the generation of a given truth table. For real data tests, we selected the Mushrooms data set, available on the UCI Machine Learning Repository.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Abstract : This work is concerned with the development and application of novel unsupervised learning methods, having in mind two target applications: the analysis of forensic case data and the classification of remote sensing images. First, a method based on a symbolic optimization of the inter-sample distance measure is proposed to improve the flexibility of spectral clustering algorithms, and applied to the problem of forensic case data. This distance is optimized using a loss function related to the preservation of neighborhood structure between the input space and the space of principal components, and solutions are found using genetic programming. Results are compared to a variety of state-of--the-art clustering algorithms. Subsequently, a new large-scale clustering method based on a joint optimization of feature extraction and classification is proposed and applied to various databases, including two hyperspectral remote sensing images. The algorithm makes uses of a functional model (e.g., a neural network) for clustering which is trained by stochastic gradient descent. Results indicate that such a technique can easily scale to huge databases, can avoid the so-called out-of-sample problem, and can compete with or even outperform existing clustering algorithms on both artificial data and real remote sensing images. This is verified on small databases as well as very large problems. Résumé : Ce travail de recherche porte sur le développement et l'application de méthodes d'apprentissage dites non supervisées. Les applications visées par ces méthodes sont l'analyse de données forensiques et la classification d'images hyperspectrales en télédétection. Dans un premier temps, une méthodologie de classification non supervisée fondée sur l'optimisation symbolique d'une mesure de distance inter-échantillons est proposée. Cette mesure est obtenue en optimisant une fonction de coût reliée à la préservation de la structure de voisinage d'un point entre l'espace des variables initiales et l'espace des composantes principales. Cette méthode est appliquée à l'analyse de données forensiques et comparée à un éventail de méthodes déjà existantes. En second lieu, une méthode fondée sur une optimisation conjointe des tâches de sélection de variables et de classification est implémentée dans un réseau de neurones et appliquée à diverses bases de données, dont deux images hyperspectrales. Le réseau de neurones est entraîné à l'aide d'un algorithme de gradient stochastique, ce qui rend cette technique applicable à des images de très haute résolution. Les résultats de l'application de cette dernière montrent que l'utilisation d'une telle technique permet de classifier de très grandes bases de données sans difficulté et donne des résultats avantageusement comparables aux méthodes existantes.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The Kineticist's Workbench is a program that simulates chemical reaction mechanisms by predicting, generating, and interpreting numerical data. Prior to simulation, it analyzes a given mechanism to predict that mechanism's behavior; it then simulates the mechanism numerically; and afterward, it interprets and summarizes the data it has generated. In performing these tasks, the Workbench uses a variety of techniques: graph- theoretic algorithms (for analyzing mechanisms), traditional numerical simulation methods, and algorithms that examine simulation results and reinterpret them in qualitative terms. The Workbench thus serves as a prototype for a new class of scientific computational tools---tools that provide symbiotic collaborations between qualitative and quantitative methods.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

An emerging consensus in cognitive science views the biological brain as a hierarchically-organized predictive processing system. This is a system in which higher-order regions are continuously attempting to predict the activity of lower-order regions at a variety of (increasingly abstract) spatial and temporal scales. The brain is thus revealed as a hierarchical prediction machine that is constantly engaged in the effort to predict the flow of information originating from the sensory surfaces. Such a view seems to afford a great deal of explanatory leverage when it comes to a broad swathe of seemingly disparate psychological phenomena (e.g., learning, memory, perception, action, emotion, planning, reason, imagination, and conscious experience). In the most positive case, the predictive processing story seems to provide our first glimpse at what a unified (computationally-tractable and neurobiological plausible) account of human psychology might look like. This obviously marks out one reason why such models should be the focus of current empirical and theoretical attention. Another reason, however, is rooted in the potential of such models to advance the current state-of-the-art in machine intelligence and machine learning. Interestingly, the vision of the brain as a hierarchical prediction machine is one that establishes contact with work that goes under the heading of 'deep learning'. Deep learning systems thus often attempt to make use of predictive processing schemes and (increasingly abstract) generative models as a means of supporting the analysis of large data sets. But are such computational systems sufficient (by themselves) to provide a route to general human-level analytic capabilities? I will argue that they are not and that closer attention to a broader range of forces and factors (many of which are not confined to the neural realm) may be required to understand what it is that gives human cognition its distinctive (and largely unique) flavour. The vision that emerges is one of 'homomimetic deep learning systems', systems that situate a hierarchically-organized predictive processing core within a larger nexus of developmental, behavioural, symbolic, technological and social influences. Relative to that vision, I suggest that we should see the Web as a form of 'cognitive ecology', one that is as much involved with the transformation of machine intelligence as it is with the progressive reshaping of our own cognitive capabilities.