995 resultados para Combinação linear


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This study evaluated using of Multicriteria Evaluation in a GIS, specifically by Weighted Linear Combination Method for generation of map of priority areas for forest restoration in the initial part of River Pardo Basin, SP, in order to water resources conservation. Aiming to define criteria and restrictions it was used Participatory Techniques, and the following factors had been selected: proximity of the hydrographic network, proximity of forest cover, slope and erodibility of soil. To calculate the weight to each factor it was used the decision-making process, known as Analytic Hierarchy Analysis, this method consists of a paired comparison of factors to determine the relative importance of each. According to Weighted Linear Combination, the very high priority areas have a more limited spatial distribution, with an apparent concentration around the water bodies, outlining a buffer to the river system. The proximity factor of the hydrographic network, and enables the connection forestry, contributed, along with the factor of proximity to forest cover, so there would be the definition of most of the areas with the highest priority in the basin, which concentrate the largest areas of forest and native riparian areas along the hydrographic.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Pós-graduação em Ciência e Tecnologia de Materiais - FC

Relevância:

100.00% 100.00%

Publicador:

Resumo:

From the characterization of biophysical attributes of the watershed (slope, soil types, capacity to land use and land cover), this article, used the multi-criteria analysis method – Weighted Linear Combination, defined priority areas for adaptation to the use of land as to its capacity of use. With this methodological approach, were created for the watershed under study, four classes, formed by different combinations of biophysical attributes (discrete data), representing levels of priorities for agricultural land use. The Multicriteria Evaluation in a GIS is suitable for the mapping of priority areas to the suitability of land use in watersheds. The geospatial information on the biophysical environment, generated from the methodological procedures described in this article, has a high positive potential to guide the rational planning of the use of natural resources and territorial occupation, besides serving as a powerful instrument to guide policies and collective processes of decision on the use and land cover.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

Esta videoaula explica sobre a dependência linear, ou seja, um tipo de relação entre os vetores de um conjunto. Um conjunto de vetores é linearmente dependente se, e só se, um dos vetores do conjunto for combinação linear dos demais vetores do conjunto. Assim, quando escrevemos um vetor como combinação linear e seus coeficientes são todos nulos, ele é linearmente dependente. Quando não existe relação linear entre os vetores diz-se que o conjunto é linearmente independente

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Os satélites para sensoriamento remoto atualmente dispoívies à comunidade científica possuem diferenies resoluções espaciais, por exemplo: SPOT 20 e 10 metros, LANDSAT-TM 30 metros e NOA-AVHRR 1100 metros. Essa resolução frequentemente não é grande o suficiente para um grande número de aplicações que necessitam de uma percepção da cena mais detalhada. Muitas vezes, no interior de uma célula de resolução (pixel) mais de uma classe ocorre. Este caso é conhecido como pixel mistura. Na classificação de imagens obtidas por sensoriamento remoto é comum a utilização de metodologias que atribuem somente uma classe a um pixel, como o procedimento clássico da máxima verossimilhança. Esse procedimento resulta frequentemente em uma estimação errônea das áreas ocupadas pelas classes presentes na cena. Em alguns casos, especialmente quando não há uma classe dominante, isto pode ser a fonte de um erro significativo. Desde o início dos anos 70, diferentes metodologias têm sido propostas para o trabalho num nível de subpixel. A grande vantagem do trabalho nesse nível é que um pixel não é necessariamente atribuído a somente uma classe. O pixel tem um grau que o correlaciona a cada classe: de zero(se a classe não ocorre no pixel) até 1 (a classe ocorre no pixel inteiro). Assim, cada pixel tem um vetor associado que estima a proporção de cada classe nele. A metodologia mais comumente utilizada considera a refletância do pixel mistura como uma combinação linear da refletância média de cada classe componente. De acordo com essa visão as refletâncias associadas às classes componentes são consideradas constantes conhecidas i.e., não são variáveis aleatórias. Assim, a proporção de cada classe no pixel é obtida pela resolução de um sistema de equações lineares. Uma outra metodologia é assumir as refletâncias que caracterizam as classes como sendo variáveis aleatórias. Nesta visão, as informações a respeito das distribuições das classes é utilizada. A estimativa das proporções de cada classe é obtida pelo vetor de proporções que maximiza a função de verossimilhança. Mais recentemente, uma visão diferente foi proposta: a utilização da lógica fuzzy. Esta metodologia utiliza o conceito de função de pertinência que é essencial à teoria dos conjuntos fuzzy. Esta função utiliza elementos com natureza estatística ou não para a estimação das proporções. No presente trabalho, duas funções de pertinência foram definidas: a primeira baseada na função densidade probabilidade gaussiana e a segunda baseada diretamente na distância de Mahalanobis. O objetivo deste estudo é avaliar cada uma das metodologias anteriores em termos de acurácia, performance e dados necessários. Para este objetivo, as metodologias foram implementadas computacionalmente e alimentadas com imagens LANDSAT-TM. Para a avaliação da acurácia dos modelos um estudo qualitativo foi executado.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

O principal objetivo dessa tese consiste em determinar uma solução numéricada equação bidimensional do transporte de nêutrons para elevadas ordens de quadratura angular. Diagonalizando a matriz de transporte LTSN bidimensional , construímos dois algoritmos que se diferenciam pela forma de representar os termos de fuga transversal, que surgem nas equações LTSN integradas transversalmente. Esses termos no método LTSN2D − Diag são expressos como combinação linear dos autovetores multiplicados por exponenciais dos respectivos autovalores. No método LTSN2D − DiagExp os termos de fuga transversal são representados por uma função exponencial com constante de decaimento heuristicamente identificada com parâmetros materiais característicos do meio. A análise epectral desenvolvida permite realizar a diagonalização. Um estudo sobre o condicionamento é feito e também associamos um número de condicionamento ao termo de fuga transversal. Definimos os erros no fluxo aproximado e na fórmula da quadratura, e estabelecemos uma relação entre eles. A convergência ocorre com condições de fronteira e quadratura angular adequadas. Apresentamos os resultados numéricos gerados pelos novos métodos LTSN2D − Diag e LTSN2D − DiagExp para elevadas ordens de quadratura angular para um problema ilustrativo e comparamos com resultados disponíveis na literatura.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Esta dissertação estuda a aplicação da estratégia Pairs Trading no mercado acionário brasileiro. Envolve basicamente a identificação de pares de ações que tenham movimentos de preço semelhantes e posteriormente a operação do diferencial entre seus preços. É possível observar no mercado a existência de um valor de equilíbrio de longo prazo para alguns pares de ações e quando o diferencial divergir de certa quantidade pré-definida opera-se o diferencial no intuito de que o mesmo retorne ao seu valor de equilíbrio de longo prazo, ou seja, espera-se que ocorra uma reversão à média do diferencial. A metodologia para a identificação desses pares de ações que descrevem movimentos semelhantes vem do conceito de cointegração. Essa metodologia é aplicada sobre as ações do índice Bovespa de 04-Jan-1993 a 30-Jun-2005. Inicialmente é feita uma pré-seleção dos pares de ações via correlação, ou medida de distância. Para a seleção final é feito o teste de cointegração, onde é utilizado o método de Dickey-Fuller aumentado (Augmented Dickey-Fuller test – ADF) para verificar a existência de raiz unitária da série de resíduo da combinação linear do logaritmo dos preços. Após a seleção, os pares são simulados historicamente (backtesting) para se analisar a performance dos retornos dos pares de ações, incluindo também os custos operacionais.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Neste trabalho, verificamos viabilidade de aplicação da estratégia de pairs trading no mercado acionário brasileiro. Diferentemente de outros estudos do mesmo tema, construímos ativos sintéticos a partir de uma combinação linear de preços de ações. Conforme Burgeois e Minko (2005), utilizamos a metodologia de Johansen para a formação dos pares a serem testados. Após a identificação de pares cointegrados, para assegurar a estacionaridade do ativo sintético contruído a partir da relação linear de preços das ações, utilizamos os testes DF-GLS e KPSS e filtramos àqueles que apresentavam raiz unitária em sua série de tempo. A seguir, simulamos a estratégia (backtesting) com os pares selecionados e para encontrar os melhores parâmetros, testamos diferentes períodos de formação dos pares, de operação e de parâmetros de entrada, saída e stop-loss. A fim de realizarmos os testes de forma mais realista possível, incluímos os custos de corretagem, de emolumentos e de aluguel, além de adicionar um lag de um dia para a realização das operações

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Esta dissertação estuda o movimento do mercado acionário brasileiro com o objetivo de testar a trajetória de preços de pares de ações, aplicada à estratégia de pair trading. Os ativos estudados compreendem as ações que compõem o Ibovespa e a seleção dos pares é feita de forma unicamente estatística através da característica de cointegração entre ativos, sem análise fundamentalista na escolha. A teoria aqui aplicada trata do movimento similar de preços de pares de ações que evoluem de forma a retornar para o equilíbrio. Esta evolução é medida pela diferença instantânea dos preços comparada à média histórica. A estratégia apresenta resultados positivos quando a reversão à média se efetiva, num intervalo de tempo pré-determinado. Os dados utilizados englobam os anos de 2006 a 2010, com preços intra-diários para as ações do Ibovespa. As ferramentas utilizadas para seleção dos pares e simulação de operação no mercado foram MATLAB (seleção) e Streambase (operação). A seleção foi feita através do Teste de Dickey-Fuller aumentado aplicado no MATLAB para verificar a existência da raiz unitária dos resíduos da combinação linear entre os preços das ações que compõem cada par. A operação foi feita através de back-testing com os dados intra-diários mencionados. Dentro do intervalo testado, a estratégia mostrou-se rentável para os anos de 2006, 2007 e 2010 (com retornos acima da Selic). Os parâmetros calibrados para o primeiro mês de 2006 puderam ser aplicados com sucesso para o restante do intervalo (retorno de Selic + 5,8% no ano de 2006), para 2007, onde o retorno foi bastante próximo da Selic e para 2010, com retorno de Selic + 10,8%. Nos anos de maior volatilidade (2008 e 2009), os testes com os mesmos parâmetros de 2006 apresentaram perdas, mostrando que a estratégia é fortemente impactada pela volatilidade dos retornos dos preços das ações. Este comportamento sugere que, numa operação real, os parâmetros devem ser calibrados periodicamente, com o objetivo de adaptá-los aos cenários mais voláteis.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Produced water is characterized as one of the most common wastes generated during exploration and production of oil. This work aims to develop methodologies based on comparative statistical processes of hydrogeochemical analysis of production zones in order to minimize types of high-cost interventions to perform identification test fluids - TIF. For the study, 27 samples were collected from five different production zones were measured a total of 50 chemical species. After the chemical analysis was applied the statistical data, using the R Statistical Software, version 2.11.1. Statistical analysis was performed in three steps. In the first stage, the objective was to investigate the behavior of chemical species under study in each area of production through the descriptive graphical analysis. The second step was to identify a function that classify production zones from each sample, using discriminant analysis. In the training stage, the rate of correct classification function of discriminant analysis was 85.19%. The next stage of processing of the data used for Principal Component Analysis, by reducing the number of variables obtained from the linear combination of chemical species, try to improve the discriminant function obtained in the second stage and increase the discrimination power of the data, but the result was not satisfactory. In Profile Analysis curves were obtained for each production area, based on the characteristics of the chemical species present in each zone. With this study it was possible to develop a method using hydrochemistry and statistical analysis that can be used to distinguish the water produced in mature fields of oil, so that it is possible to identify the zone of production that is contributing to the excessive elevation of the water volume.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

The pattern classification is one of the machine learning subareas that has the most outstanding. Among the various approaches to solve pattern classification problems, the Support Vector Machines (SVM) receive great emphasis, due to its ease of use and good generalization performance. The Least Squares formulation of SVM (LS-SVM) finds the solution by solving a set of linear equations instead of quadratic programming implemented in SVM. The LS-SVMs provide some free parameters that have to be correctly chosen to achieve satisfactory results in a given task. Despite the LS-SVMs having high performance, lots of tools have been developed to improve them, mainly the development of new classifying methods and the employment of ensembles, in other words, a combination of several classifiers. In this work, our proposal is to use an ensemble and a Genetic Algorithm (GA), search algorithm based on the evolution of species, to enhance the LSSVM classification. In the construction of this ensemble, we use a random selection of attributes of the original problem, which it splits the original problem into smaller ones where each classifier will act. So, we apply a genetic algorithm to find effective values of the LS-SVM parameters and also to find a weight vector, measuring the importance of each machine in the final classification. Finally, the final classification is obtained by a linear combination of the decision values of the LS-SVMs with the weight vector. We used several classification problems, taken as benchmarks to evaluate the performance of the algorithm and compared the results with other classifiers

Relevância:

60.00% 60.00%

Publicador:

Resumo:

O Sistema de Posicionamento Global (GPS) transmite seus sinais em duas freqüências, o que permite eliminar matematicamente os efeitos de primeira ordem da ionosfera através da combinação linear ionosphere free. Porém, restam os efeitos de segunda e terceira ordem, os quais podem provocar erros da ordem de centímetros nas medidas GPS. Esses efeitos, geralmente, são negligenciados no processamento dos dados GPS. Os efeitos ionosféricos de primeira, segunda e terceira ordem são diretamente proporcionais ao TEC presente na ionosfera, porém, no caso dos efeitos de segunda e terceira ordem, comparecem também o campo magnético da Terra e a máxima densidade de elétrons, respectivamente. Nesse artigo, os efeitos de segunda e terceira ordem da ionosfera são investigados, sendo que foram levados em consideração no processamento de dados GPS na região brasileira para fins de posicionamento. Serão apresentados os modelos matemáticos associados a esses efeitos, as transformações envolvendo o campo magnético da Terra e a utilização do TEC advindo dos Mapas Globais da Ionosfera ou calculados a partir das observações GPS de pseudodistância. O processamento dos dados GPS foi realizado considerando o método relativo estático e cinemático e o posicionamento por ponto preciso (PPP). Os efeitos de segunda e terceira ordem foram analisados considerando períodos de alta e baixa atividade ionosférica. Os resultados mostraram que a não consideração desses efeitos no posicionamento por ponto preciso e no posicionamento relativo para linhas de base longas pode introduzir variações da ordem de poucos milímetros nas coordenadas das estações, além de variações diurnas em altitude da ordem de centímetros.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)