1000 resultados para Sistemas especialistas : Redes neurais : Sistema de apoio a decisao : Tomada de decisao
Resumo:
Who was the cowboy in Washington? What is the land of sushi? Most people would have answers to these questions readily available,yet, modern search engines, arguably the epitome of technology in finding answers to most questions, are completely unable to do so. It seems that people capture few information items to rapidly converge to a seemingly 'obvious' solution. We will study approaches for this problem, with two additional hard demands that constrain the space of possible theories: the sought model must be both psychologically and neuroscienti cally plausible. Building on top of the mathematical model of memory called Sparse Distributed Memory, we will see how some well-known methods in cryptography can point toward a promising, comprehensive, solution that preserves four crucial properties of human psychology.
Resumo:
O estudo teve como objetivo avaliar a capacidade preditiva dos modelos de estimação do risco de mercado em momentos de crises financeiras. Para isso, foram testados modelos de estimação do Value-at-Risk (VaR) aplicados aos retornos diários de carteiras compostas por índices de ações de países desenvolvidos e emergentes. Foram testados o modelo VaR de Simulação Histórica, modelos ARCH multivariados (Bekk, Vech e CCC), Redes Neurais Artificiais e funções Cópulas. A amostra de dados refere-se aos períodos de duas crises financeiras internacionais, Crise Asiática, de 1997, e Crise do Sub Prime dos EUA, de 2008. Os resultados apontaram que os modelos ARCH multivariados (Vech e Bekk) e Cópula - Clayton tiveram desempenho semelhantes, com bons ajustes em 100% dos testes. Diferentemente do que era esperado, não foi possível perceber diferenças significativas entre os ajustes para países desenvolvidos e emergentes e os momentos de crise e normal.
Resumo:
O presente trabalho pretende descrever e analisar a evolução institucional da Internet Corporation for Assigned Names and Numbers (ICANN), organização responsável pela gestão dos nomes de domínio e protocolos de comunicação entre computadores em rede ao redor do mundo. Iniciando sua trajetória como instituição privada estadunidense e vinculada ao departamento de comércio do mesmo país, a ICANN passa por diversas modificações estruturais ao longo da última década, de forma a englobar representantes de diversos setores sociais em suas atividades. Algumas peculiaridades em sua estrutura que ainda a vinculam aos Estados Unidos, no entanto, são objeto de controvérsia entre aqueles que buscam uma democratização da internet em nível global.
Resumo:
Fruto da crescente preocupação face à bioacumulação e bioconcentração de poluentes e conscientização dos efeitos do aquecimento global, nos últimos anos têm sido adoptadas inúmeras acções e medidas que visam o controlo de parâmetros indicadores da qualidade do meio, a detecção de substâncias potencialmente perigosas e a promoção/utilização de energias alternativas não poluentes. Neste âmbito, a monitorização em tempo real revela-se fundamental para a análise contínua do equilíbrio dos ecossistemas. Neste contexto, os sensores de fibra óptica, mais concretamente os sensores químicos em fibra óptica possuem um conjunto de características, como por exemplo a miniaturização, baixo custo, versatilidade, biocompatibilidade, capacidade de monitorização remota, que representam uma alternativa tecnológica e economicamente viável. Por outro lado, a utilização de redes de difracção em sensores de fibra óptica, é em adição uma mais-valia para este tipo de sistemas, as redes de período longo pela sua sensibilidade intrínseca ao índice de refracção, e as redes de Bragg pela sua facilidade de interrogação e facilidade de multiplexagem. A presente dissertação tem por objectivo o estudo, desenvolvimento e análise de sensores em fibra óptica para monitorização de espaços ambientais. O presente documento encontra-se organizado em cinco capítulos. O capítulo 1 faz um enquadramento dos sensores de fibra óptica para monitorização ambiental dando relevo aos sensores químicos em fibra óptica. No capítulo 2 expõe-se o conjunto de conceitos necessários para a compreensão do trabalho. A começar pelas redes de difracção em fibra óptica e a suas potencialidades como elementos sensores. Algumas configurações foram detalhadas assim como alguns princípios para interrogação das mesmas. A medição multi-parâmetro e o fabrico de membranas de sensibilidade selectiva são também abordados. O Capitulo 3 refere a primeira configuração desenvolvida, trata-se de um sensor interferométrico baseado numa cavidade Fabry-Pérot, constituído por uma rede de Bragg e a reflectividade da ponta da fibra. O objectivo do sensor é a monitorização do ácido acético e outras espécies carboxílicas em bioreactores. Para tornar a configuração sensível ao ácido foi aplicado um revestimento de Silane-PVP à extremidade da fibra. A configuração sensora demonstrada aufere de características favoráveis, como excelente resolução, resposta linear, não utilização de indicadores, leitura em reflexão e o facto de operar na janela espectral das telecomunicações. O Capítulo 4 apresenta a segunda configuração desenvolvida que tem por objectivo a medição simultânea de salinidade e temperatura. A medição de salinidade é baseada no índice de refracção. Trata-se de um sensor de intensidade auto-referenciado, baseado em três redes de difracção. Uma rede de período longo sensível ao índice de refracção e temperatura e duas redes de Bragg, para interrogação da da rede de período longo e compensação de temperatura. Para discriminação dos parâmetros de interesse foi utilizado o método matricial. A configuração exposta exibe características favoráveis, como excelente resolução, resposta linear, discriminação de índice de refracção e temperatura, leitura em reflexão e o facto de operar na janela espectral das telecomunicações. O Capitulo 5 contém as conclusões e comentários finais ao trabalho. No final da tese seguem-se os anexos, onde se encontram as publicações e comunicações resultantes do trabalho realizado.
Resumo:
BARBOSA, André F. ; SOUZA, Bryan C. ; PEREIRA JUNIOR, Antônio ; MEDEIROS, Adelardo A. D.de, . Implementação de Classificador de Tarefas Mentais Baseado em EEG. In: CONGRESSO BRASILEIRO DE REDES NEURAIS, 9., 2009, Ouro Preto, MG. Anais... Ouro Preto, MG, 2009
Resumo:
This master dissertation presents the study and implementation of inteligent algorithms to monitor the measurement of sensors involved in natural gas custody transfer processes. To create these algoritmhs Artificial Neural Networks are investigated because they have some particular properties, such as: learning, adaptation, prediction. A neural predictor is developed to reproduce the sensor output dynamic behavior, in such a way that its output is compared to the real sensor output. A recurrent neural network is used for this purpose, because of its ability to deal with dynamic information. The real sensor output and the estimated predictor output work as the basis for the creation of possible sensor fault detection and diagnosis strategies. Two competitive neural network architectures are investigated and their capabilities are used to classify different kinds of faults. The prediction algorithm and the fault detection classification strategies, as well as the obtained results, are presented
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior
Resumo:
Nowadays, telecommunications is one of the most dynamic and strategic areas in the world. Organizations are always seeking to find new management practices within an ever increasing competitive environment where resources are getting scarce. In this scenario, data obtained from business and corporate processes have even greater importance, although this data is not yet adequately explored. Knowledge Discovery in Databases (KDD) appears then, as an option to allow the study of complex problems in different areas of management. This work proposes both a systematization of KDD activities using concepts from different methodologies, such as CRISP-DM, SEMMA and FAYYAD approaches and a study concerning the viability of multivariate regression analysis models to explain corporative telecommunications sales using performance indicators. Thus, statistical methods were outlined to analyze the effects of such indicators on the behavior of business productivity. According to business and standard statistical analysis, equations were defined and fit to their respective determination coefficients. Tests of hypotheses were also conducted on parameters with the purpose of validating the regression models. The results show that there is a relationship between these development indicators and the amount of sales
Resumo:
There are some approaches that take advantage of unused computational resources in the Internet nodes - users´ machines. In the last years , the peer-to-peer networks (P2P) have gaining a momentum mainly due to its support for scalability and fault tolerance. However, current P2P architectures present some problems such as nodes overhead due to messages routing, a great amount of nodes reconfigurations when the network topology changes, routing traffic inside a specific network even when the traffic is not directed to a machine of this network, and the lack of a proximity relationship among the P2P nodes and the proximity of these nodes in the IP network. Although some architectures use the information about the nodes distance in the IP network, they use methods that require dynamic information. In this work we propose a P2P architecture to fix the problems afore mentioned. It is composed of three parts. The first part consists of a basic P2P architecture, called SGrid, which maintains a relationship of nodes in the P2P network with their position in the IP network. Its assigns adjacent key regions to nodes of a same organization. The second part is a protocol called NATal (Routing and NAT application layer) that extends the basic architecture in order to remove from the nodes the responsibility of routing messages. The third part consists of a special kind of node, called LSP (Lightware Super-Peer), which is responsible for maintaining the P2P routing table. In addition, this work also presents a simulator that validates the architecture and a module of the Natal protocol to be used in Linux routers
Resumo:
The petroleum industry, in consequence of an intense activity of exploration and production, is responsible by great part of the generation of residues, which are considered toxic and pollutants to the environment. Among these, the oil sludge is found produced during the production, transportation and refine phases. This work had the purpose to develop a process to recovery the oil present in oil sludge, in order to use the recovered oil as fuel or return it to the refining plant. From the preliminary tests, were identified the most important independent variables, like: temperature, contact time, solvents and acid volumes. Initially, a series of parameters to characterize the oil sludge was determined to characterize its. A special extractor was projected to work with oily waste. Two experimental designs were applied: fractional factorial and Doehlert. The tests were carried out in batch process to the conditions of the experimental designs applied. The efficiency obtained in the oil extraction process was 70%, in average. Oil sludge is composed of 36,2% of oil, 16,8% of ash, 40% of water and 7% of volatile constituents. However, the statistical analysis showed that the quadratic model was not well fitted to the process with a relative low determination coefficient (60,6%). This occurred due to the complexity of the oil sludge. To obtain a model able to represent the experiments, the mathematical model was used, the so called artificial neural networks (RNA), which was generated, initially, with 2, 4, 5, 6, 7 and 8 neurons in the hidden layer, 64 experimental results and 10000 presentations (interactions). Lesser dispersions were verified between the experimental and calculated values using 4 neurons, regarding the proportion of experimental points and estimated parameters. The analysis of the average deviations of the test divided by the respective training showed up that 2150 presentations resulted in the best value parameters. For the new model, the determination coefficient was 87,5%, which is quite satisfactory for the studied system
Resumo:
Photo-oxidation processes of toxic organic compounds have been widely studied. This work seeks the application of the photo-Fenton process for the degradation of hydrocarbons in water. The gasoline found in the refinery, without additives and alcohol, was used as the model pollutant. The effects of the concentration of the following substances have been properly evaluated: hydrogen peroxide (100-200 mM), iron ions (0.5-1 mM) and sodium chloride (200 2000 ppm). The experiments were accomplished in reactor with UV lamp and in a falling film solar reactor. The photo-oxidation process was monitored by measurements of the absorption spectra, total organic carbon (TOC) and chemical oxygen demand (COD). Experimental results demonstrated that the photo-Fenton process is feasible for the treatment of wastewaters containing aliphatic hydrocarbons, inclusive in the presence of salts. These conditions are similar to the water produced by the petroleum fields, generated in the extraction and production of petroleum. A neural network model of process correlated well the observed data for the photooxidation process of hydrocarbons