901 resultados para Cálculo de variaciones
Resumo:
O produto potencial é uma variável não-observável e, por isso, de difícil mensuração. O objetivo deste trabalho é contribuir para a discussão sobre a estimação da taxa de crescimento do produto potencial brasileiro através de uma revisão teórica e metodológica das estimativas da variável para a economia brasileira. Após uma análise sintética sobre os principais conceitos relacionados ao tema e sobre os métodos de estimação mais utilizados na literatura nacional, optou-se por utilizar seis tipos de mensurações distintas. As principais conclusões do trabalho foram: primeiramente, as estimativas de Produto Interno Bruto (PIB) potencial são bastante sensíveis à metodologia utilizada; em segundo lugar, baseado em dados trimestrais da economia brasileira, foi possível verificar que a taxa de crescimento do produto potencial brasileiro caiu nos últimos anos e que esta se encontra em uma banda entre 1,63% e 2,72%.
Resumo:
O objetivo deste estudo é propor a implementação de um modelo estatístico para cálculo da volatilidade, não difundido na literatura brasileira, o modelo de escala local (LSM), apresentando suas vantagens e desvantagens em relação aos modelos habitualmente utilizados para mensuração de risco. Para estimação dos parâmetros serão usadas as cotações diárias do Ibovespa, no período de janeiro de 2009 a dezembro de 2014, e para a aferição da acurácia empírica dos modelos serão realizados testes fora da amostra, comparando os VaR obtidos para o período de janeiro a dezembro de 2014. Foram introduzidas variáveis explicativas na tentativa de aprimorar os modelos e optou-se pelo correspondente americano do Ibovespa, o índice Dow Jones, por ter apresentado propriedades como: alta correlação, causalidade no sentido de Granger, e razão de log-verossimilhança significativa. Uma das inovações do modelo de escala local é não utilizar diretamente a variância, mas sim a sua recíproca, chamada de “precisão” da série, que segue uma espécie de passeio aleatório multiplicativo. O LSM captou todos os fatos estilizados das séries financeiras, e os resultados foram favoráveis a sua utilização, logo, o modelo torna-se uma alternativa de especificação eficiente e parcimoniosa para estimar e prever volatilidade, na medida em que possui apenas um parâmetro a ser estimado, o que representa uma mudança de paradigma em relação aos modelos de heterocedasticidade condicional.
Resumo:
A presente dissertação tem como objetivo apresentar dois importantes modelos usados na análise de risco. Essa análise culmina em uma aplicação empírica para cada um deles. Apresenta-se primeiro o modelo Nelson-Siegel dinâmico, que estima a curva de juros usando um modelo paramétrico exponencial parcimonioso. É citada a referência criadora dessa abordagem, que é Nelson & Siegel (1987), passa-se pela apresentação da mais importante abordagem moderna que é a de Diebold & Li (2006), que é quem cria a abordagem dinâmica do modelo Nelson-Siegel, e que é inspiradora de diversas extensões. Muitas dessas extensões também são apresentadas aqui. Na parte empírica, usando dados da taxa a termo americana de Janeiro de 2004 a Março de 2015, estimam-se os modelos Nelson-Siegel dinâmico e de Svensson e comparam-se os resultados numa janela móvel de 12 meses e comparamos seus desempenhos com aqueles de um passeio aleatório. Em seguida, são apresentados os modelos ARCH e GARCH, citando as obras originais de Engle (1982) e Bolleslev (1986) respectivamente, discutem-se características destes modelos e apresentam-se algumas extensões ao modelo GARCH, incluindo aí alguns modelos GARCH multivariados. Passa-se então por uma rápida apresentação do conceito de VaR (Value at Risk), que será o objetivo da parte empírica. Nesta, usando dados de 02 de Janeiro de 2004 até 25 de Fevereiro de 2015, são feitas uma estimação da variância de um portfólio usando os modelos GARCH, GJR-GARCH e EGARCH e uma previsão do VaR do portfólio a partir da estimação feita anteriormente. Por fim, são apresentados alguns trabalhos que usam os dois modelos conjuntamente, ou seja, que consideram que as taxas ou os fatores que as podem explicam possuem variância variante no tempo.
Resumo:
Em resposta à crise financeira de 2008, em 2010 o Comitê de Basileia em Supervisão Bancária (Basel Committee on Banking Supervision - BCBS) emitiu a metodologia do cálculo do indicador de Risco de Liquidez de curto prazo (Liquidity Coverage Ratio - LCR) que é um dos componentes do conjunto de normas conhecido como Basileia III. Esse índice mede se cada conglomerado possui um estoque de ativos financeiros líquidos de alta qualidade de forma a suportar uma crise severa por 30 dias. Esse trabalho calculou o índice de liquidez de curto prazo dos dez maiores bancos brasileiros em ativos totais nos últimos cinco anos, seguindo as diretrizes do documento acima mencionado e do Banco Central do Brasil. A finalidade desse estudo foi verificar se houve uma melhora na liquidez dos grandes bancos após a divulgação da metodologia de cálculo do LCR, uma vez que a partir de 2015 é esperado pelo Banco Central do Brasil que os bancos possuam pelo menos 60% de ativos líquidos para suportar uma crise de 30 dias. A análise foi conduzida utilizando dados contábeis oriundos tanto do banco de dados do Banco Central do Brasil quanto das publicações individuais de cada instituição. Essa análise permitiu avaliar que os principais bancos do sistema financeiro brasileiro já estão preparados para atender aos requisitos internacionais e que não serão necessárias grandes alterações na estrutura do balanço das instituições analisadas, evitando a migração seus ativos de empréstimos, aplicações em certificados de depósitos interbancários e títulos privados para títulos de alta qualidade e liquidez.
Resumo:
O item não apresenta o texto completo, para aquisição do livro na íntegra você poderá acessar a Editora da UFSCar por meio do link: www.editora.ufscar.br
Resumo:
Neste material é apresentado primeiramente um teorema muito importante que é o teorema do valor médio, com exemplos de aplicação. Na sequência temos a definição de antiderivada ou primitiva de uma função. No segundo tópico segue a definição de integral indefinida e a apresentação de algumas integrais importantes e básicas. Uma tabela de integrais básicas também é disponibilizada. Finalizando, foram listados propriedades e exemplos de integrais.
Resumo:
Vídeo que mostra detalhadamente uma das aplicações da integral definida para o cálculo da área delimitada por duas curvas. Todos os cálculos são feitos passo a passo.
Resumo:
Capítulo 3 do Livro "Noções de Cálculo Diferencial e Integral para Tecnólogos"
Resumo:
Livro completo
Resumo:
A apresentaçãp fala inicialmente sobre a existência da derivada num ponto; fala sobre a condição de que uma função ser contínua em a não implica ter derivada em a. Apresenta também exemplos importantes de tais funções. Na sequência apresenta a caracterização das derivadas, derivadas laterais e funções importantes que possuem derivadas (funções constante, linear, polinomial, racional, trigonométrica, logarítmica e exponencial). Para dar andamento são apresentadas as notações que são usadas no cálculo diferencial para derivada de 1ª ordem e de ordem superior assim como derivada de funções elementares. As regras básicas, como derivada da soma, diferença, produto e quociente de funções deriváveis são mostradas e exemplificadas no tópico 3. Na sequência são apresentadas outras definições e propriedades importantes que são: Regra da cadeia; Fórmulas que seguem do uso da regra da cadeia; derivadas implícitas; aplicações (Cálculo das retas tangentes e normais, e dos limites indeterminados).
Resumo:
Versão com menu acessível para leitores de tela e vídeo com audiodescrição.
Resumo:
Versão com menu acessível para leitores de tela e vídeo com audiodescrição.
Resumo:
Embora tenha sido proposto que a vasculatura retínica apresenta estrutura fractal, nenhuma padronização do método de segmentação ou do método de cálculo das dimensões fractais foi realizada. Este estudo objetivou determinar se a estimação das dimensões fractais da vasculatura retínica é dependente dos métodos de segmentação vascular e dos métodos de cálculo de dimensão. Métodos: Dez imagens retinográficas foram segmentadas para extrair suas árvores vasculares por quatro métodos computacionais (“multithreshold”, “scale-space”, “pixel classification” e “ridge based detection”). Suas dimensões fractais de “informação”, de “massa-raio” e “por contagem de caixas” foram então calculadas e comparadas com as dimensões das mesmas árvores vasculares, quando obtidas pela segmentação manual (padrão áureo). Resultados: As médias das dimensões fractais variaram através dos grupos de diferentes métodos de segmentação, de 1,39 a 1,47 para a dimensão por contagem de caixas, de 1,47 a 1,52 para a dimensão de informação e de 1,48 a 1,57 para a dimensão de massa-raio. A utilização de diferentes métodos computacionais de segmentação vascular, bem como de diferentes métodos de cálculo de dimensão, introduziu diferença estatisticamente significativa nos valores das dimensões fractais das árvores vasculares. Conclusão: A estimação das dimensões fractais da vasculatura retínica foi dependente tanto dos métodos de segmentação vascular, quanto dos métodos de cálculo de dimensão utilizados
Resumo:
This article refers to a research which tries to historically (re)construct the conceptual development of the Integral and Differential calculus, taking into account its constructing model feature, since the Greeks to Newton. These models were created by the problems that have been proposed by the history and were being modified by the time the new problems were put and the mathematics known advanced. In this perspective, I also show how a number of nature philosophers and mathematicians got involved by this process. Starting with the speculations over scientific and philosophical natures done by the ancient Greeks, it culminates with Newton s work in the 17th century. Moreover, I present and analyze the problems proposed (open questions), models generated (questions answered) as well as the religious, political, economic and social conditions involved. This work is divided into 6 chapters plus the final considerations. Chapter 1 shows how the research came about, given my motivation and experience. I outline the ways I have gone trough to refine the main question and present the subject of and the objectives of the research, ending the chapter showing the theoretical bases by which the research was carried out, naming such bases as Investigation Theoretical Fields (ITF). Chapter 2 presents each one of the theoretical bases, which was introduced in the chapter 1 s end. In this discuss, I try to connect the ITF to the research. The Chapter 3 discusses the methodological choices done considering the theoretical fields considered. So, the Chapters 4, 5 and 6 present the main corpus of the research, i.e., they reconstruct the calculus history under a perspective of model building (questions answered) from the problems given (open questions), analyzing since the ancient Greeks contribution (Chapter 4), pos- Greek, especially, the Romans contribution, Hindus, Arabian, and the contribution on the Medium Age (Chapter 5). I relate the European reborn and the contribution of the philosophers and scientists until culminate with the Newton s work (Chapter 6). In the final considerations, it finally gives an account on my impressions about the development of the research as well as the results reached here. By the end, I plan out a propose of curse of Differential and Integral Calculus, having by basis the last three chapters of the article