885 resultados para Combinação Linear Ponderada
Resumo:
Esta videoaula explica sobre a dependência linear, ou seja, um tipo de relação entre os vetores de um conjunto. Um conjunto de vetores é linearmente dependente se, e só se, um dos vetores do conjunto for combinação linear dos demais vetores do conjunto. Assim, quando escrevemos um vetor como combinação linear e seus coeficientes são todos nulos, ele é linearmente dependente. Quando não existe relação linear entre os vetores diz-se que o conjunto é linearmente independente
Resumo:
A proposição de índices de qualidade do solo tem crescido de forma considerável nos últimos anos para análises de sustentabilidade ambiental e da produção agrícola. No entanto, não há, nas condições brasileiras, o desenvolvimento de qualquer indicador de qualidade do solo vinculado à recarga de água subterrânea. O objetivo deste estudo foi gerar um índice de qualidade do solo, relacionado à recarga de água subterrânea (IQS RA), válido para as condições da Bacia Hidrográfica do Alto Rio Grande e proceder a seu mapeamento por meio de técnicas geoestatísticas. O IQS RA proposto é uma combinação linear de três indicadores relacionados à infiltração de água no solo: densidade do solo, condutividade hidráulica saturada e macroporosidade. Para sua validação, foi considerada a participação do deflúvio base (ou subterrâneo) no deflúvio total para quatro sub-bacias da Bacia Hidrográfica do Alto Rio Grande, analisando o comportamento desses indicadores hidrológicos tendo-se como referência a distribuição espacial do IQS RA. O índice gerado mostrou-se uma ferramenta importante para avaliação do potencial do solo para recarga de água subterrânea, uma vez que ele reflete a influência dos usos da terra no comportamento do deflúvio base e, consequentemente, na dinâmica da produção de água pelas sub-bacias.
Resumo:
O objetivo deste trabalho foi desenvolver um modelo matemático de estimativa da temperatura média diária do ar no Estado de Goiás, que considera simultaneamente as variações espacial e temporal. O modelo foi desenvolvido por meio de uma combinação linear da altitude, latitude, longitude e da série trigonométrica de Fourier incompleta usando os três primeiros coeficientes harmônicos. Os parâmetros do modelo foram ajustados aos dados de 21 estações meteorológicas, por meio de regressão linear múltipla. O coeficiente de correlação resultante do ajuste do modelo foi de 0,91, e o índice de concordância de Willmott foi igual a 1. O modelo foi testado com os dados de três estações de altitudes diferentes: elevada (1.100 m), média (554 m) e baixa (431 m). O desempenho foi considerado mediano para altitudes baixas e elevadas, e muito bom para altitudes médias.
Resumo:
Os satélites para sensoriamento remoto atualmente dispoívies à comunidade científica possuem diferenies resoluções espaciais, por exemplo: SPOT 20 e 10 metros, LANDSAT-TM 30 metros e NOA-AVHRR 1100 metros. Essa resolução frequentemente não é grande o suficiente para um grande número de aplicações que necessitam de uma percepção da cena mais detalhada. Muitas vezes, no interior de uma célula de resolução (pixel) mais de uma classe ocorre. Este caso é conhecido como pixel mistura. Na classificação de imagens obtidas por sensoriamento remoto é comum a utilização de metodologias que atribuem somente uma classe a um pixel, como o procedimento clássico da máxima verossimilhança. Esse procedimento resulta frequentemente em uma estimação errônea das áreas ocupadas pelas classes presentes na cena. Em alguns casos, especialmente quando não há uma classe dominante, isto pode ser a fonte de um erro significativo. Desde o início dos anos 70, diferentes metodologias têm sido propostas para o trabalho num nível de subpixel. A grande vantagem do trabalho nesse nível é que um pixel não é necessariamente atribuído a somente uma classe. O pixel tem um grau que o correlaciona a cada classe: de zero(se a classe não ocorre no pixel) até 1 (a classe ocorre no pixel inteiro). Assim, cada pixel tem um vetor associado que estima a proporção de cada classe nele. A metodologia mais comumente utilizada considera a refletância do pixel mistura como uma combinação linear da refletância média de cada classe componente. De acordo com essa visão as refletâncias associadas às classes componentes são consideradas constantes conhecidas i.e., não são variáveis aleatórias. Assim, a proporção de cada classe no pixel é obtida pela resolução de um sistema de equações lineares. Uma outra metodologia é assumir as refletâncias que caracterizam as classes como sendo variáveis aleatórias. Nesta visão, as informações a respeito das distribuições das classes é utilizada. A estimativa das proporções de cada classe é obtida pelo vetor de proporções que maximiza a função de verossimilhança. Mais recentemente, uma visão diferente foi proposta: a utilização da lógica fuzzy. Esta metodologia utiliza o conceito de função de pertinência que é essencial à teoria dos conjuntos fuzzy. Esta função utiliza elementos com natureza estatística ou não para a estimação das proporções. No presente trabalho, duas funções de pertinência foram definidas: a primeira baseada na função densidade probabilidade gaussiana e a segunda baseada diretamente na distância de Mahalanobis. O objetivo deste estudo é avaliar cada uma das metodologias anteriores em termos de acurácia, performance e dados necessários. Para este objetivo, as metodologias foram implementadas computacionalmente e alimentadas com imagens LANDSAT-TM. Para a avaliação da acurácia dos modelos um estudo qualitativo foi executado.
Resumo:
O principal objetivo dessa tese consiste em determinar uma solução numéricada equação bidimensional do transporte de nêutrons para elevadas ordens de quadratura angular. Diagonalizando a matriz de transporte LTSN bidimensional , construímos dois algoritmos que se diferenciam pela forma de representar os termos de fuga transversal, que surgem nas equações LTSN integradas transversalmente. Esses termos no método LTSN2D − Diag são expressos como combinação linear dos autovetores multiplicados por exponenciais dos respectivos autovalores. No método LTSN2D − DiagExp os termos de fuga transversal são representados por uma função exponencial com constante de decaimento heuristicamente identificada com parâmetros materiais característicos do meio. A análise epectral desenvolvida permite realizar a diagonalização. Um estudo sobre o condicionamento é feito e também associamos um número de condicionamento ao termo de fuga transversal. Definimos os erros no fluxo aproximado e na fórmula da quadratura, e estabelecemos uma relação entre eles. A convergência ocorre com condições de fronteira e quadratura angular adequadas. Apresentamos os resultados numéricos gerados pelos novos métodos LTSN2D − Diag e LTSN2D − DiagExp para elevadas ordens de quadratura angular para um problema ilustrativo e comparamos com resultados disponíveis na literatura.
Resumo:
Esta dissertação estuda a aplicação da estratégia Pairs Trading no mercado acionário brasileiro. Envolve basicamente a identificação de pares de ações que tenham movimentos de preço semelhantes e posteriormente a operação do diferencial entre seus preços. É possível observar no mercado a existência de um valor de equilíbrio de longo prazo para alguns pares de ações e quando o diferencial divergir de certa quantidade pré-definida opera-se o diferencial no intuito de que o mesmo retorne ao seu valor de equilíbrio de longo prazo, ou seja, espera-se que ocorra uma reversão à média do diferencial. A metodologia para a identificação desses pares de ações que descrevem movimentos semelhantes vem do conceito de cointegração. Essa metodologia é aplicada sobre as ações do índice Bovespa de 04-Jan-1993 a 30-Jun-2005. Inicialmente é feita uma pré-seleção dos pares de ações via correlação, ou medida de distância. Para a seleção final é feito o teste de cointegração, onde é utilizado o método de Dickey-Fuller aumentado (Augmented Dickey-Fuller test – ADF) para verificar a existência de raiz unitária da série de resíduo da combinação linear do logaritmo dos preços. Após a seleção, os pares são simulados historicamente (backtesting) para se analisar a performance dos retornos dos pares de ações, incluindo também os custos operacionais.
Resumo:
Neste trabalho, verificamos viabilidade de aplicação da estratégia de pairs trading no mercado acionário brasileiro. Diferentemente de outros estudos do mesmo tema, construímos ativos sintéticos a partir de uma combinação linear de preços de ações. Conforme Burgeois e Minko (2005), utilizamos a metodologia de Johansen para a formação dos pares a serem testados. Após a identificação de pares cointegrados, para assegurar a estacionaridade do ativo sintético contruído a partir da relação linear de preços das ações, utilizamos os testes DF-GLS e KPSS e filtramos àqueles que apresentavam raiz unitária em sua série de tempo. A seguir, simulamos a estratégia (backtesting) com os pares selecionados e para encontrar os melhores parâmetros, testamos diferentes períodos de formação dos pares, de operação e de parâmetros de entrada, saída e stop-loss. A fim de realizarmos os testes de forma mais realista possível, incluímos os custos de corretagem, de emolumentos e de aluguel, além de adicionar um lag de um dia para a realização das operações
Resumo:
Esta dissertação estuda o movimento do mercado acionário brasileiro com o objetivo de testar a trajetória de preços de pares de ações, aplicada à estratégia de pair trading. Os ativos estudados compreendem as ações que compõem o Ibovespa e a seleção dos pares é feita de forma unicamente estatística através da característica de cointegração entre ativos, sem análise fundamentalista na escolha. A teoria aqui aplicada trata do movimento similar de preços de pares de ações que evoluem de forma a retornar para o equilíbrio. Esta evolução é medida pela diferença instantânea dos preços comparada à média histórica. A estratégia apresenta resultados positivos quando a reversão à média se efetiva, num intervalo de tempo pré-determinado. Os dados utilizados englobam os anos de 2006 a 2010, com preços intra-diários para as ações do Ibovespa. As ferramentas utilizadas para seleção dos pares e simulação de operação no mercado foram MATLAB (seleção) e Streambase (operação). A seleção foi feita através do Teste de Dickey-Fuller aumentado aplicado no MATLAB para verificar a existência da raiz unitária dos resíduos da combinação linear entre os preços das ações que compõem cada par. A operação foi feita através de back-testing com os dados intra-diários mencionados. Dentro do intervalo testado, a estratégia mostrou-se rentável para os anos de 2006, 2007 e 2010 (com retornos acima da Selic). Os parâmetros calibrados para o primeiro mês de 2006 puderam ser aplicados com sucesso para o restante do intervalo (retorno de Selic + 5,8% no ano de 2006), para 2007, onde o retorno foi bastante próximo da Selic e para 2010, com retorno de Selic + 10,8%. Nos anos de maior volatilidade (2008 e 2009), os testes com os mesmos parâmetros de 2006 apresentaram perdas, mostrando que a estratégia é fortemente impactada pela volatilidade dos retornos dos preços das ações. Este comportamento sugere que, numa operação real, os parâmetros devem ser calibrados periodicamente, com o objetivo de adaptá-los aos cenários mais voláteis.
Resumo:
Produced water is characterized as one of the most common wastes generated during exploration and production of oil. This work aims to develop methodologies based on comparative statistical processes of hydrogeochemical analysis of production zones in order to minimize types of high-cost interventions to perform identification test fluids - TIF. For the study, 27 samples were collected from five different production zones were measured a total of 50 chemical species. After the chemical analysis was applied the statistical data, using the R Statistical Software, version 2.11.1. Statistical analysis was performed in three steps. In the first stage, the objective was to investigate the behavior of chemical species under study in each area of production through the descriptive graphical analysis. The second step was to identify a function that classify production zones from each sample, using discriminant analysis. In the training stage, the rate of correct classification function of discriminant analysis was 85.19%. The next stage of processing of the data used for Principal Component Analysis, by reducing the number of variables obtained from the linear combination of chemical species, try to improve the discriminant function obtained in the second stage and increase the discrimination power of the data, but the result was not satisfactory. In Profile Analysis curves were obtained for each production area, based on the characteristics of the chemical species present in each zone. With this study it was possible to develop a method using hydrochemistry and statistical analysis that can be used to distinguish the water produced in mature fields of oil, so that it is possible to identify the zone of production that is contributing to the excessive elevation of the water volume.
Resumo:
The pattern classification is one of the machine learning subareas that has the most outstanding. Among the various approaches to solve pattern classification problems, the Support Vector Machines (SVM) receive great emphasis, due to its ease of use and good generalization performance. The Least Squares formulation of SVM (LS-SVM) finds the solution by solving a set of linear equations instead of quadratic programming implemented in SVM. The LS-SVMs provide some free parameters that have to be correctly chosen to achieve satisfactory results in a given task. Despite the LS-SVMs having high performance, lots of tools have been developed to improve them, mainly the development of new classifying methods and the employment of ensembles, in other words, a combination of several classifiers. In this work, our proposal is to use an ensemble and a Genetic Algorithm (GA), search algorithm based on the evolution of species, to enhance the LSSVM classification. In the construction of this ensemble, we use a random selection of attributes of the original problem, which it splits the original problem into smaller ones where each classifier will act. So, we apply a genetic algorithm to find effective values of the LS-SVM parameters and also to find a weight vector, measuring the importance of each machine in the final classification. Finally, the final classification is obtained by a linear combination of the decision values of the LS-SVMs with the weight vector. We used several classification problems, taken as benchmarks to evaluate the performance of the algorithm and compared the results with other classifiers
Resumo:
O Sistema de Posicionamento Global (GPS) transmite seus sinais em duas freqüências, o que permite eliminar matematicamente os efeitos de primeira ordem da ionosfera através da combinação linear ionosphere free. Porém, restam os efeitos de segunda e terceira ordem, os quais podem provocar erros da ordem de centímetros nas medidas GPS. Esses efeitos, geralmente, são negligenciados no processamento dos dados GPS. Os efeitos ionosféricos de primeira, segunda e terceira ordem são diretamente proporcionais ao TEC presente na ionosfera, porém, no caso dos efeitos de segunda e terceira ordem, comparecem também o campo magnético da Terra e a máxima densidade de elétrons, respectivamente. Nesse artigo, os efeitos de segunda e terceira ordem da ionosfera são investigados, sendo que foram levados em consideração no processamento de dados GPS na região brasileira para fins de posicionamento. Serão apresentados os modelos matemáticos associados a esses efeitos, as transformações envolvendo o campo magnético da Terra e a utilização do TEC advindo dos Mapas Globais da Ionosfera ou calculados a partir das observações GPS de pseudodistância. O processamento dos dados GPS foi realizado considerando o método relativo estático e cinemático e o posicionamento por ponto preciso (PPP). Os efeitos de segunda e terceira ordem foram analisados considerando períodos de alta e baixa atividade ionosférica. Os resultados mostraram que a não consideração desses efeitos no posicionamento por ponto preciso e no posicionamento relativo para linhas de base longas pode introduzir variações da ordem de poucos milímetros nas coordenadas das estações, além de variações diurnas em altitude da ordem de centímetros.
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Pós-graduação em Ciência e Tecnologia de Materiais - FC
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)