1000 resultados para Sistemas especialistas : Redes neurais : Sistema de apoio a decisao : Tomada de decisao


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho relata o desenvolvimento de uma aplicação capaz de reconhecer um vocabulário restrito de comandos de direcionamento pronunciados de forma isolada e independentes do locutor. Os métodos utilizados para efetivar o reconhecimento foram: técnicas clássicas de processamento de sinais e redes neurais artificiais. No processamento de sinais visou-se o pré-processamento das amostras para obtenção dos coeficientes cepstrais. Enquanto que para o treinamento e classificação foram utilizadas duas redes neurais distintas, as redes: Backpropagation e Fuzzy ARTMAP. Diversas amostras foram coletadas de diferentes usuários no sentido de compor um banco de dados flexível para o aprendizado das redes neurais, que garantisse uma representação satisfatória da grande variabilidade que apresentam as pronúncias entre as vozes dos usuários. Com a aplicação de tais técnicas, o reconhecimento demostrou-se eficaz, distinguindo cada um dos comandos com bons índices de acerto, uma vez que o sistema é independente do locutor.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O traçado de obras com características lineares num espaço geográfico tem, em princípio, um número muito grande de soluções. A seleção de traçados mais convenientes é hoje abordada pela Pesquisa Operacional por meio da Programação Dinâmica tradicional e das técnicas para resolver o problema conhecido como leastcost- path, (caminho de mínimo custo). Por sua vez, o planejamento de espaços geográficos é feito com o auxílio de técnicas de SIG (sistemas de informação geográfica). O estudo algorítmico dos caminhos de mínimo custo não é novidade e até os programas comerciais para SIG mais utilizados têm incorporado comandos que, com certas limitações, resolvem esse problema. Mas, seja qual for a abordagem, sempre é preciso conhecer a priori a funçãoobjetivo (FO), e isto não é tarefa fácil, pois devem ser conjugados objetivos de satisfação de necessidades sociais, políticas, ambientais e econômicas, o que gera um verdadeiro problema de otimização multiobjetivo e multicritério. Este trabalho teve como foco principal elaborar um modelo de decisão para ajudar na formulação da FO, adotando o paradigma multiobjetivo/multicritério, explorando inclusive o relaxamento difuso de pareceres dos decisores. Foram utilizadas apenas ferramentas computacionais (software e hardware) simples, de ampla difusão entre os engenheiros e de baixo custo, como a planilha de cálculo Excel e o programa Idrisi 32, procurando explorar suas aptidões e limitações, sem recorrer à elaboração e/ou utilização de códigos computacionais próprios, sobre os quais muitas pessoas sentem receios até não serem testados suficientemente. Foi obtido um sistema de apoio à decisão eficaz e de fácil utilização e sua possibilidade de aplicação foi testada na definição do traçado ótimo de parte da defesa norte da cidade de Resistencia (Argentina).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Propõe um modelo de sistema especialista para análise de crédito, considerando a visão tradicional de avaliação de empresas aliada à abordagem inovadora de planejamento estratégico. Identifica desenvolvimentos recentes da Inteligência Artificial para a área de crédito das instituições financeiras. Descreve os principais conceitos e aplicações de Sistemas Especialistas e utiliza uma- metodologia mista para o desenvolvimento

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O atual ambiente de negócios crescentemente competitivo e turbulento requer das organizações modernas conhecimento profundo sobre as necessidades dos clientes e uma percepção de oportunidades e arrojo não triviais. Neste contexto, a transformação de dados em informações oportunas e precisas é fundamental para subsidiar a gestão. O Planejamento Estratégico Empresarial (PEE) e da Tecnologia da Informação (PETI) vêm modernamente sendo construídos para, de forma alinhada, atender o anseio maior da empresa, qual seja, maximizar seu valor a longo prazo. Este trabalho descreve sucintamente algumas visões sobre estratégia corporativa, sobre a necessidade de alinhamento desta estratégia com a TI e analisa o caso de implementação de um Sistema de Apoio à Decisão pioneiramente desenvolvido e implementado num grande Centro de Diagnósticos Médicos localizado na cidade de São Paulo. A análise do caso está fundamentada na literatura e nas vivências profissionais do pesquisador e fundamenta-se em quatro grandes grupos de fatores: tecnologia da informação, sistemas de inteligência artificial e do conhecimento, recursos humanos e contexto organizacional. A conclusão reitera a importância do alinhamento estratégico e ilustra os resultados positivos que dele se pode esperar.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Resumo O objetivo deste trabalho é explorar a utilização de Redes Neurais no processo de previsão da Captação Líquida do Mercado de Previdência Privada Brasileiro como ferramenta à tomada de decisão e apoio na gestão das empresas do setor. Para a construção desse modelo foram utilizadas Redes Neurais, ferramenta que vem se mostrando adequada para utilização em modelos não lineares com resultados superiores a outras técnicas. A fonte de dados principal para a realização deste trabalho foi a FENAPREVI – Federação Nacional de Previdência Privada e Vida. Para comparação com o modelo de Redes Neurais, foi utilizado um modelo de Regressão Linear Múltipla como benchmark, com o objetivo de evidenciar a adequação da ferramenta em vista dos objetivos traçados no trabalho. O modelo foi construído a partir das informações mensais do setor, entre maio de 2002 e agosto de 2009, considerando o que se convencionou chamar de ‘mercado vivo’, que abrange os produtos PGBL e VGBL, comercializados ininterruptamente nesse período pelas chamadas EAPP – Entidades Abertas de Prividência Privada. Os resultados obtidos demonstraram a adequação da ferramenta Redes Neurais, que obtiveram resultados superiores aos obtidos utilizando Regressão Linear Múltipla.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A multidisciplinaridade da tomada de decisão sofre com as peculiaridades de qualquer campo multidisciplinar. A falta de comunicação, muitas vezes, gera problemas e as respostas que podem ser encontradas dentro de outras áreas. Os Métodos de Estruturação de Problemas são respostas para os questionamentos atuais nas escolas de administração e negócios, principalmente o uso multimetodológico destes com outros métodos. Tendo o Soft Systems Metholodogy – SSM – como base, e a incorporação do Strategic Options Development and Analysis – SODA – ao processo do SSM, Georgiou (2012) apresenta o Planejamento Sistêmico em sua configuração mais recente. Visando buscar uma ferramenta computacional que atenda os pressupostos do SSM, e que incorpore as especificações da configuração do Planejamento Sistêmico, definem-se uma notação para o método e uma formalização das para as comunicações existentes entre os elementos, subsistemas, sistema e ambiente e, com isso, torna-se possível controlar o uso do método de forma iterativa. Para demonstrar tal uso, apresenta-se uma análise de um caso real e demonstra as dificuldades encontradas na utilização da Notação e Comunicação definida. Posteriormente, apresenta-se um desenho técnico de uma ferramenta computacional modular e que pode ser usada de forma integrada com outras ferramentas de outros métodos. Como resultado, têm-se o avanço na definição de padrões no uso das ferramentas do SSM, na apresentação dos aspectos sistêmicos do Planejamento Sistêmico, na apresentação de um uso iterativo do método e na apresentação de um desenho técnico para uma ferramenta computacional.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A crescente adoção da WEB para a realização de transações entre organizações e indivíduos aumenta consideravelmente a quantidade de informações disponíveis para tomada de decisão nas mais variadas circunstâncias. É de se esperar que o uso das tecnologias de auxílio à decisão possam contribuir para facilitar o processo de escolha, particularmente no que diz respeito às escolhas por produtos para consumo. Na busca para usufruir do maior número possível de elementos no processo decisório, indivíduos delegam parte da tarefa de organizar os dados dispersos na WEB a agregadores de informação que estabelecem com eles uma relação de confiança e possibilitam que seja considerada uma quantidade de variáveis muito superior à que eles seriam capazes de fazer isoladamente. Juntado a este fenômeno o conhecimento prévio dos indivíduos com relação a produtos e seus fornecedores, este trabalho propõe, por meio da combinação de dados de registros de navegação e percepção de consumidores, um modelo de explicação dos diversos elementos envolvidos no processo de confiança na decisão de compra com uso de interface interativa disponível pela WEB (SAD-WEB) representada por website de comparação de preços.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este relatório pretende ilustrar a experiência profissional obtida, principalmente após a conclusão, em 1998, da Licenciatura em Engenharia de Sistemas e Computadores na Universidade da Madeira. Esta experiência circunscreve-se à proficiência nas áreas de redes de comunicação de dados, automação e robótica e desenvolvimento de média interativos (tanto na vertente de CD-ROMs como orientado à Internet). Embora também disponha de experiência no ensino destas áreas citadas, foram privilegiados os projetos com uma relevância mais técnica atendendo à natureza deste mestrado. Sendo assim, são apresentadas nestas quatro áreas primeiro uma descrição dos projetos realizados no âmbito do percurso profissional, para depois descrever uma implementação (relativa a cada área) utilizando uma metodologia científica que fora alvo de estudo na componente letiva deste mestrado, salientando as virtudes e defeitos de ambas as abordagens e comparando os resultados obtidos. Em síntese, é analisado o projeto de gestão de sistemas de redes das Escolas Secundárias Francisco Franco e Jaime Moniz (no âmbito do desempenho das funções de Diretor das Instalações Informáticas em ambas as instituições) culminando numa proposta de implementação utilizando equipamentos da Cisco; é analisado o projeto de CD-ROM sobre a Reserva Natural das Ilhas Desertas para depois completar um jogo educativo utilizando uma metodologia científica de Game Design; são descritos os websites desenvolvidos (com especial ênfase nos realizados enquanto técnico superior de informática na Secretaria Regional do Ambiente e dos Recursos Naturais) para concluir com uma proposta de implementação de um sistema de marcação de reuniões orientado para a Cloud; finalmente, é descrito a utilização dos kits Lego Mindstorms para o ensino da programação, propondo uma implementação de baixo custo (alternativa) baseada num Raspberry Pi e componentes acessórios (tanto estandardizados como construídos com uma RepRap). Em suma, é contraposto o rigor e método do ensino académico com o pragmatismo e metas de produtividade exigidas no mercado de trabalho.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Forecast is the basis for making strategic, tactical and operational business decisions. In financial economics, several techniques have been used to predict the behavior of assets over the past decades.Thus, there are several methods to assist in the task of time series forecasting, however, conventional modeling techniques such as statistical models and those based on theoretical mathematical models have produced unsatisfactory predictions, increasing the number of studies in more advanced methods of prediction. Among these, the Artificial Neural Networks (ANN) are a relatively new and promising method for predicting business that shows a technique that has caused much interest in the financial environment and has been used successfully in a wide variety of financial modeling systems applications, in many cases proving its superiority over the statistical models ARIMA-GARCH. In this context, this study aimed to examine whether the ANNs are a more appropriate method for predicting the behavior of Indices in Capital Markets than the traditional methods of time series analysis. For this purpose we developed an quantitative study, from financial economic indices, and developed two models of RNA-type feedfoward supervised learning, whose structures consisted of 20 data in the input layer, 90 neurons in one hidden layer and one given as the output layer (Ibovespa). These models used backpropagation, an input activation function based on the tangent sigmoid and a linear output function. Since the aim of analyzing the adherence of the Method of Artificial Neural Networks to carry out predictions of the Ibovespa, we chose to perform this analysis by comparing results between this and Time Series Predictive Model GARCH, developing a GARCH model (1.1).Once applied both methods (ANN and GARCH) we conducted the results' analysis by comparing the results of the forecast with the historical data and by studying the forecast errors by the MSE, RMSE, MAE, Standard Deviation, the Theil's U and forecasting encompassing tests. It was found that the models developed by means of ANNs had lower MSE, RMSE and MAE than the GARCH (1,1) model and Theil U test indicated that the three models have smaller errors than those of a naïve forecast. Although the ANN based on returns have lower precision indicator values than those of ANN based on prices, the forecast encompassing test rejected the hypothesis that this model is better than that, indicating that the ANN models have a similar level of accuracy . It was concluded that for the data series studied the ANN models show a more appropriate Ibovespa forecasting than the traditional models of time series, represented by the GARCH model

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In this paper artificial neural network (ANN) based on supervised and unsupervised algorithms were investigated for use in the study of rheological parameters of solid pharmaceutical excipients, in order to develop computational tools for manufacturing solid dosage forms. Among four supervised neural networks investigated, the best learning performance was achieved by a feedfoward multilayer perceptron whose architectures was composed by eight neurons in the input layer, sixteen neurons in the hidden layer and one neuron in the output layer. Learning and predictive performance relative to repose angle was poor while to Carr index and Hausner ratio (CI and HR, respectively) showed very good fitting capacity and learning, therefore HR and CI were considered suitable descriptors for the next stage of development of supervised ANNs. Clustering capacity was evaluated for five unsupervised strategies. Network based on purely unsupervised competitive strategies, classic "Winner-Take-All", "Frequency-Sensitive Competitive Learning" and "Rival-Penalize Competitive Learning" (WTA, FSCL and RPCL, respectively) were able to perform clustering from database, however this classification was very poor, showing severe classification errors by grouping data with conflicting properties into the same cluster or even the same neuron. On the other hand it could not be established what was the criteria adopted by the neural network for those clustering. Self-Organizing Maps (SOM) and Neural Gas (NG) networks showed better clustering capacity. Both have recognized the two major groupings of data corresponding to lactose (LAC) and cellulose (CEL). However, SOM showed some errors in classify data from minority excipients, magnesium stearate (EMG) , talc (TLC) and attapulgite (ATP). NG network in turn performed a very consistent classification of data and solve the misclassification of SOM, being the most appropriate network for classifying data of the study. The use of NG network in pharmaceutical technology was still unpublished. NG therefore has great potential for use in the development of software for use in automated classification systems of pharmaceutical powders and as a new tool for mining and clustering data in drug development

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Post dispatch analysis of signals obtained from digital disturbances registers provide important information to identify and classify disturbances in systems, looking for a more efficient management of the supply. In order to enhance the task of identifying and classifying the disturbances - providing an automatic assessment - techniques of digital signal processing can be helpful. The Wavelet Transform has become a very efficient tool for the analysis of voltage or current signals, obtained immediately after disturbance s occurrences in the network. This work presents a methodology based on the Discrete Wavelet Transform to implement this process. It uses a comparison between distribution curves of signals energy, with and without disturbance. This is done for different resolution levels of its decomposition in order to obtain descriptors that permit its classification, using artificial neural networks

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The bidimensional periodic structures called frequency selective surfaces have been well investigated because of their filtering properties. Similar to the filters that work at the traditional radiofrequency band, such structures can behave as band-stop or pass-band filters, depending on the elements of the array (patch or aperture, respectively) and can be used for a variety of applications, such as: radomes, dichroic reflectors, waveguide filters, artificial magnetic conductors, microwave absorbers etc. To provide high-performance filtering properties at microwave bands, electromagnetic engineers have investigated various types of periodic structures: reconfigurable frequency selective screens, multilayered selective filters, as well as periodic arrays printed on anisotropic dielectric substrates and composed by fractal elements. In general, there is no closed form solution directly from a given desired frequency response to a corresponding device; thus, the analysis of its scattering characteristics requires the application of rigorous full-wave techniques. Besides that, due to the computational complexity of using a full-wave simulator to evaluate the frequency selective surface scattering variables, many electromagnetic engineers still use trial-and-error process until to achieve a given design criterion. As this procedure is very laborious and human dependent, optimization techniques are required to design practical periodic structures with desired filter specifications. Some authors have been employed neural networks and natural optimization algorithms, such as the genetic algorithms and the particle swarm optimization for the frequency selective surface design and optimization. This work has as objective the accomplishment of a rigorous study about the electromagnetic behavior of the periodic structures, enabling the design of efficient devices applied to microwave band. For this, artificial neural networks are used together with natural optimization techniques, allowing the accurate and efficient investigation of various types of frequency selective surfaces, in a simple and fast manner, becoming a powerful tool for the design and optimization of such structures

Relevância:

100.00% 100.00%

Publicador:

Resumo:

We propose a multi-resolution approach for surface reconstruction from clouds of unorganized points representing an object surface in 3D space. The proposed method uses a set of mesh operators and simple rules for selective mesh refinement, with a strategy based on Kohonen s self-organizing map. Basically, a self-adaptive scheme is used for iteratively moving vertices of an initial simple mesh in the direction of the set of points, ideally the object boundary. Successive refinement and motion of vertices are applied leading to a more detailed surface, in a multi-resolution, iterative scheme. Reconstruction was experimented with several point sets, induding different shapes and sizes. Results show generated meshes very dose to object final shapes. We include measures of performance and discuss robustness.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

ln this work, it was deveIoped a parallel cooperative genetic algorithm with different evolution behaviors to train and to define architectures for MuItiIayer Perceptron neural networks. MuItiIayer Perceptron neural networks are very powerful tools and had their use extended vastIy due to their abiIity of providing great resuIts to a broad range of appIications. The combination of genetic algorithms and parallel processing can be very powerful when applied to the Iearning process of the neural network, as well as to the definition of its architecture since this procedure can be very slow, usually requiring a lot of computational time. AIso, research work combining and appIying evolutionary computation into the design of neural networks is very useful since most of the Iearning algorithms deveIoped to train neural networks only adjust their synaptic weights, not considering the design of the networks architecture. Furthermore, the use of cooperation in the genetic algorithm allows the interaction of different populations, avoiding local minima and helping in the search of a promising solution, acceIerating the evolutionary process. Finally, individuaIs and evolution behavior can be exclusive on each copy of the genetic algorithm running in each task enhancing the diversity of populations

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Conventional methods to solve the problem of blind source separation nonlinear, in general, using series of restrictions to obtain the solution, often leading to an imperfect separation of the original sources and high computational cost. In this paper, we propose an alternative measure of independence based on information theory and uses the tools of artificial intelligence to solve problems of blind source separation linear and nonlinear later. In the linear model applies genetic algorithms and Rényi of negentropy as a measure of independence to find a separation matrix from linear mixtures of signals using linear form of waves, audio and images. A comparison with two types of algorithms for Independent Component Analysis widespread in the literature. Subsequently, we use the same measure of independence, as the cost function in the genetic algorithm to recover source signals were mixed by nonlinear functions from an artificial neural network of radial base type. Genetic algorithms are powerful tools for global search, and therefore well suited for use in problems of blind source separation. Tests and analysis are through computer simulations