1000 resultados para Risco (Economia) - Modelos matemáticos
Resumo:
A presente dissertação tem como objetivo apresentar dois importantes modelos usados na análise de risco. Essa análise culmina em uma aplicação empírica para cada um deles. Apresenta-se primeiro o modelo Nelson-Siegel dinâmico, que estima a curva de juros usando um modelo paramétrico exponencial parcimonioso. É citada a referência criadora dessa abordagem, que é Nelson & Siegel (1987), passa-se pela apresentação da mais importante abordagem moderna que é a de Diebold & Li (2006), que é quem cria a abordagem dinâmica do modelo Nelson-Siegel, e que é inspiradora de diversas extensões. Muitas dessas extensões também são apresentadas aqui. Na parte empírica, usando dados da taxa a termo americana de Janeiro de 2004 a Março de 2015, estimam-se os modelos Nelson-Siegel dinâmico e de Svensson e comparam-se os resultados numa janela móvel de 12 meses e comparamos seus desempenhos com aqueles de um passeio aleatório. Em seguida, são apresentados os modelos ARCH e GARCH, citando as obras originais de Engle (1982) e Bolleslev (1986) respectivamente, discutem-se características destes modelos e apresentam-se algumas extensões ao modelo GARCH, incluindo aí alguns modelos GARCH multivariados. Passa-se então por uma rápida apresentação do conceito de VaR (Value at Risk), que será o objetivo da parte empírica. Nesta, usando dados de 02 de Janeiro de 2004 até 25 de Fevereiro de 2015, são feitas uma estimação da variância de um portfólio usando os modelos GARCH, GJR-GARCH e EGARCH e uma previsão do VaR do portfólio a partir da estimação feita anteriormente. Por fim, são apresentados alguns trabalhos que usam os dois modelos conjuntamente, ou seja, que consideram que as taxas ou os fatores que as podem explicam possuem variância variante no tempo.
Resumo:
Com o objetivo de analisar o impacto na Estrutura a Termos de Volatilidade (ETV) das taxas de juros utilizando dois diferentes modelos na estimação da Estrutura a Termo das Taxas de Juros (ETTJ) e a suposição em relação a estrutura heterocedástica dos erros (MQO e MQG ponderado pela duration), a técnica procede em estimar a ETV utilizando-se da volatilidade histórica por desvio padrão e pelo modelo auto-regressivo Exponentially Weighted Moving Average (EWMA). Por meio do teste de backtesting proposto por Kupiec para o VaR paramétrico obtido com as volatilidades das ETV´s estimadas, concluí-se que há uma grande diferença na aderência que dependem da combinação dos modelos utilizados para as ETV´s. Além disso, há diferenças estatisticamente significantes entre as ETV´s estimadas em todo os pontos da curva, particularmente maiores no curto prazo (até 1 ano) e nos prazos mais longos (acima de 10 anos).
Resumo:
Este trabalho apresenta metodologia de mensuração e gestão de risco para empresas do ramo frigorífico. A ferramenta utilizada é conhecida como Earnings at Risk (EaR), e se adota uma visão top-down, que mostra a variação do resultado da empresa de acordo com variáveis explicativas de mercado e variáveis idiossincráticas. Através da eliminação de multicolinearidade entre essas variáveis com o uso da métrica de Análise de Componentes Principais (ACP), busca-se analisar como o novo EaR se comportaria frente ao enfoque usual, construído com um modelo de regressão linear múltipla. Variáveis dummy fazem parte do modelo de estimação do resultado futuro das empresas frigoríficas, relacionadas à ocorrência ou não de doenças que afetam o gado bovino, e à retirada de embargos econômicos de países importadores durante o período de análise. Ao fim do trabalho é verificado que as variáveis dummy não possuem relevância para a determinação de EaR, e que não se chega a conclusão de que o modelo de EaR com ACP se mostra melhor com menos variáveis, mantendo a mesma variância e significância estatística originais.
Resumo:
Este trabalho aplica a teoria de cópulas à mensuração do risco de mercado, através do cálculo do Value at Risk (VaR). A função de cópula oferece uma maior flexibilidade para a agregação de riscos quando comparada com abordagens tradicionais de mensuração de risco. A teoria de cópulas permite a utilização de distribuições de probabilidade diferentes da normal para a modelagem individual dos fatores de risco. Além disso, diferentes estruturas de associação entre eles podem ser aplicadas sem que restrições sejam impostas às suas distribuições. Dessa forma, premissas como a normalidade conjunta dos retornos e a linearidade na dependência entre fatores de risco podem ser dispensadas, possibilitando a correta modelagem de eventos conjuntos extremos e de assimetria na relação de dependência. Após a apresentação dos principais conceitos associados ao tema, um modelo de cópula foi desenvolvido para o cálculo do VaR de três carteiras, expostas aos mercados brasileiros cambial e acionário. Em seguida, a sua precisão foi comparada com a das metodologias tradicionais delta-normal e de simulação histórica. Os resultados mostraram que o modelo baseado na teoria de cópulas foi superior aos tradicionais na previsão de eventos extremos, representados pelo VaR 99%. No caso do VaR 95%, o modelo delta-normal apresentou o melhor desempenho. Finalmente, foi possível concluir que o estudo da teoria de cópulas é de grande relevância para a gestão de riscos financeiros. Fica a sugestão de que variações do modelo de VaR desenvolvido neste trabalho sejam testadas, e que esta teoria seja também aplicada à gestão de outros riscos, como o de crédito, operacional, e até mesmo o risco integrado.
Resumo:
A motivação deste trabalho é relacionar a teoria da estatística com uma clássica aplicação prática na indústria, mais especificamente no mercado financeiro brasileiro. Com o avanço de hardware, sistemas de suporte à decisão se tornaram viáveis e desempenham hoje papel fundamental em muitas áreas de interesse como logística, gestão de carteiras de ativos, risco de mercado e risco de crédito. O presente trabalho tem como objetivos principais propor uma metodologia de construção de modelos de escoragem de crédito e mostrar uma aplicação prática em operações de empréstimo pessoal com pagamento em cheques. A parte empírica utiliza dados reais de instituição financeira e duas metodologias estatísticas, análise de regressão linear múltipla e análise de regressão probit. São comparados os resultados obtidos a partir da aplicação de modelos de escoragem de crédito desenvolvidos com cada metodologia com os resultados obtidos sem a utilização de modelos. Assim, demonstra-se o incremento de resultado da utilização de modelos de escoragem e conclui-se se há ou não diferenças significativas entre a utilização de cada metodologia. A metodologia de construção de modelos de escoragem é composta basicamente por duas etapas, definição das relações e da equação para cálculo do escore e a definição do ponto de corte. A primeira consiste em uma busca por relações entre as variáveis cadastrais e de comportamento do cliente, variáveis da operação e o risco de crédito caracterizado pela inadimplência. A segunda indica o ponto em que o risco deixa de ser interessante e o resultado esperado da operação passa a ser negativo. Ambas as etapas são descritas com detalhes e exemplificadas no caso de empréstimos pessoais no Brasil. A comparação entre as duas metodologias, regressão linear e regressão probit, realizada no caso de empréstimos pessoais, considerou dois aspectos principais dos modelos desenvolvidos, a performance estatística medida pelo indicador K-S e o resultado incremental gerado pela aplicação do modelo. Foram obtidos resultados similares com ambas as metodologias, o que leva à conclusão de que a discussão de qual das duas metodologias utilizar é secundária e que se deve tratar a gestão do modelo com maior profundidade.
Resumo:
Nos últimos tempos, mensurar o Risco Operacional (RO) tornou-se o grande desafio para instituições financeiras no mundo todo, principalmente com a implementação das regras de alocação de capital regulatório do Novo Acordo de Capital da Basiléia (NACB). No Brasil, ao final de 2004, o Banco Central (BACEN) estabeleceu um cronograma de metas e disponibilizou uma equipe responsável pela adaptação e implementação dessas regras no sistema financeiro nacional. A Federação de Bancos Brasileiros (FEBRABAN) também divulgou recente pesquisa de gestão de RO envolvendo vários bancos. Todo esse processo trouxe uma vasta e crescente pesquisa e atividades voltadas para a modelagem de RO no Brasil. Em nosso trabalho, medimos o impacto geral nos banco brasileiros, motivado pelas novas regras de alocação de capital de RO envolvendo os modelos mais básicos do NACB. Também introduzimos um modelo avançado de mensuração de risco, chamado Loss Data Distribution (LDA), que alguns especialistas, provenientes do Risco de Mercado, convencionaram chamar de Value-at-Risk Operacional (VaR Operacional.). Ao final desse trabalho apresentamos um caso prático baseado na implementação do LDA ou VaR
Resumo:
Analisamos a previsibilidade dos retornos mensais de ativos no mercado brasileiro em um período de 10 anos desde o início do plano Real. Para analisarmos a variação cross-section dos retornos e explicarmos estes retornos em função de prêmios de risco variantes no tempo, condicionados a variáveis de estado macroeconômicas, utilizamos um novo modelo de apreçamento de ativos, combinando dois diferentes tipos de modelos econômicos, um modelo de finanças - condicional e multifatorial, e um modelo estritamente macroeconômico do tipo Vector Auto Regressive. Verificamos que o modelo com betas condicionais não explica adequadamente os retornos dos ativos, porém o modelo com os prêmios de risco (e não os betas) condicionais, produz resultados com interpretação econômica e estatisticamente satis fatórios
Resumo:
O objetivo deste trabalho foi mostrar modelagens alternativas à tradicional maneira de se apurar o risco de mercado para ativos financeiros brasileiros. Procurou-se cobrir o máximo possível de fatores de risco existentes no Brasil; para tanto utilizamos as principais proxies para instrumentos de Renda Fixa. Em momentos de volatilidade, o gerenciamento de risco de mercado é bastante criticado por trabalhar dentro de modelagens fundamentadas na distribuição normal. Aqui reside a maior contribuição do VaR e também a maior crítica a ele. Adicionado a isso, temos um mercado caracterizado pela extrema iliquidez no mercado secundário até mesmo em certos tipos de títulos públicos federais. O primeiro passo foi fazer um levantamento da produção acadêmica sobre o tema, seja no Brasil ou no mundo. Para a nossa surpresa, pouco, no nosso país, tem se falado em distribuições estáveis aplicadas ao mercado financeiro, seja em gerenciamento de risco, precificação de opções ou administração de carteiras. Após essa etapa, passamos a seleção das variáveis a serem utilizadas buscando cobrir uma grande parte dos ativos financeiros brasileiros. Assim, deveríamos identificar a presença ou não da condição de normalidade para, aí sim, realizarmos as modelagens das medidas de risco, VaR e ES, para os ativos escolhidos, As condições teóricas e práticas estavam criadas: demanda de mercado (crítica ao método gausiano bastante difundido), ampla cobertura de ativos (apesar do eventual questionamento da liquidez), experiência acadêmica e conhecimento internacional (por meio de detalhado e criterioso estudo da produção sobre o tema nos principais meios). Analisou-se, desta forma, quatro principais abordagens para o cálculo de medidas de risco sendo elas coerentes (ES) ou não (VaR). É importante mencionar que se trata de um trabalho que poderá servir de insumo inicial para trabalhos mais grandiosos, por exemplo, aqueles que incorporarem vários ativos dentro de uma carteira de riscos lineares ou, até mesmo, para ativos que apresentem risco não-direcionais.
Resumo:
The relation between metabolic demand and maximal oxygen consumption during exercise have been investigated in different areas of knowledge. In the health field, the determination of maximal oxygen consumption (VO2max) is considered a method to classify the level of physical fitness or the risk of cardiocirculatory diseases. The accuracy to obtain data provides a better evaluation of functional responses and allows a reduction in the error margin at the moment of risk classification, as well as, at the moment of determination of aerobic exercise work load. In Brasil, the use of respirometry associated to ergometric test became an opition in the cardiorespiratory evaluation. This equipment allows predictions concerning the oxyredutase process, making it possible to identify physiological responses to physical effort as the respiratory threshold. This thesis focused in the development of mathematical models developed by multiple regression validated by the stepwise method, aiming to predict the VO2max based on respiratory responses to physical effort. The sample was composed of a ramdom sample of 181 healthy individuals, men and women, that were randomized to two groups: regression group and cross validation group (GV). The voluntiars were submitted to a incremental treadmill test; objetiving to determinate of the second respiratory threshold (LVII) and the Peak VO2max. Using the método forward addition method 11 models of VO2max prediction in trendmill were developded. No significative differences were found between the VO2max meansured and the predicted by models when they were compared using ANOVA One-Way and the Post Hoc test of Turkey. We concluded that the developed mathematical models allow a prediction of the VO2max of healthy young individuals based on the LVII
Resumo:
A manga é uma fruta tropical muito popular em virtude das suas características exóticas e do seu valor nutritivo, sendo bastante apreciada na culinária e na alimentação da população brasileira. Este trabalho teve como objetivo analisar o comportamento higroscópico dos pós de manga das variedades Rosa e Tommy Atkins através de isotermas de adsorção, e as características físico-químicas e minerais tanto destes pós quanto das frutas na sua forma in natura. A partir dos resultados obtidos das análises físico-químicas e minerais para as amostras in natura e em pó, observa-se que as variedades Rosa e Tommy Atkins são estatisticamente semelhantes entre si na maioria dos parâmetros analisados. No entanto, observa-se que a variedade Rosa apresentou uma melhor qualidade nutricional que a variedade Tommy Atkins, notadamente no que se refere ao teor de vitamina C e carotenóides. Para o ajuste das isotermas de adsorção, os modelos de GAB e de Oswin se ajustaram satisfatoriamente aos dados experimentais dos pós de manga, exceto para a variedade Rosa. Também foi detectado que em ambientes com atividade de água elevada (a partir de 0,70) os pós das variedades Rosa e Tommy Atkins apresentam um comportamento mais higroscópico.
Resumo:
Modelos matemáticos de localização têm tido aplicação crescente na área de saúde em nível internacional. No Brasil, embora de uso incipiente, existe enorme potencial para a utilização desses modelos na área de saúde pública. Nesse sentido são apresentados diversos modelos de localização com aplicação em saúde pública, analisando a localização de serviços não emergenciais, de serviços de emergência e a localização de serviços hierarquicamente relacionados. Mostrou-se a aplicação de um modelo hierárquico à localização de serviços de assistência materna e perinatal no Município do Rio de Janeiro, RJ (Brasil). Nesta parte, após a apresentação de alguns dados da assistência materna e perinatal no município, foi proposto um modelo hierárquico de quatro níveis (localização de unidades ambulatoriais, maternidades, centros de neonatologia e hospitais gerais) e analisado o impacto que a adoção da metodologia teria em comparação com o sistema atual.
Resumo:
El movimiento de grandes masas de aire en la atmósfera en las latitudes medias, está controlado principalmente por el llamado balance geostrófico. Este es un balance entre la fuerza de Coriolis y el gradiente de presión matemáticamente análogo al balance hidrostático que da lugar a las ecuaciones de Saint Venant en el estudio de ondas de gravedad en aguas poco profundas. La utilización de este balance como primer término en la expansión asintótica sistemática de las ecuaciones de movimiento, da lugar a una evolución temporal que está controlada por las llamadas ecuaciones cuasi-geostróficas. La dinámica regida por las ecuaciones cuasi-geostróficas da lugar a la formación de frentes entre masas de aire a distintas temperaturas. Se puede conjeturar que estos frentes corresponden a los observados efectivamente en la atmósfera. Dichos frentes pueden emitir ondas de gravedad, que evolucionan en escalas de longitud y tiempo mucho menores que las mesoescalas del balance geostrófico y corresponden por lo tanto, a mecanismos físicos ignorados por el modelo cuasi-geostrófico. Desde un punto de vista matemático la derivación del modelo cuasi-geostrófico "filtra" las frecuencias altas, en particular las ondas de gravedad. Esto implica que, para entender el proceso de formación de estas ondas es necesario desarrollar un modelo mucho más amplio que contemple la interacción de las mesoescalas cuasi-geostróficas y las microescalas de las ondas de gravedad. Este es un problema análogo al estudio de los efectos de la inclusión de un término dispersivo pequeño en una ecuación hiperbólica no lineal. En este contexto, cuando la parte hiperbólica genera un frente de choque, la dispersión produce oscilaciones de alta frecuencia cuyo estudio es un problema abierto y de mucho interés. Con la combinación de cuidadosas expansiones asintóticas, estudios numéricos y análisis teóricos, desarrollaremos y estudiaremos un modelo matemático simplificado para el estudio de los fenómenos mencionados.
Resumo:
A estimativa de chuvas intensas máximas é de grande importância para o dimensionamento de projetos agrícolas, tais como: terraços para controle de erosão, obras de barragens de terra e drenagem em solo agrícola. As chuvas são caracterizadas pela sua intensidade (mm h-1), pelo tempo de duração (min) e pelo período de retorno (anos). O modelo básico tem sido usado para determinação da intensidade de precipitação máxima diária a ser aplicada no dimensionamento de estruturas de contenção, fixando-se o período de retorno e a duração da chuva. O tempo de concentração em bacias hidrográficas, que normalmente fica entre 60 e 120 min para bacias consideradas pequenas, tem sido usado como tempo de duração na estimativa de chuvas intensas. Nesse intervalo, existem outros modelos que propiciam melhores ajustes e, conseqüentemente, maior confiabilidade na estimativa da chuva a ser usada nos dimensionamentos de estruturas de contenção. Assim, este trabalho teve como objetivo ajustar dois outros modelos para a estimativa de chuvas intensas: um exponencial e um linear, além do modelo básico. Esses modelos foram ajustados com base em dados de precipitação máxima diária anual da região de Lavras (MG), empregando-se dados de chuvas diárias do período de 1914 a 1991. Os dados foram transformados em intensidades de precipitação, com tempo de retorno variando de 2 a 100 anos e duração entre 5 e 1.440 min. Verificou-se que o modelo exponencial proposto proporcionou melhores ajustes, com menores erros na estimativa, para chuvas variando de 5 a 240 min, sendo, portanto, recomendável a bacias em que o tempo de concentração se enquadre nesta faixa de tempo; o modelo básico mostrou-se mais aplicável a bacias em que o tempo de duração seja maior que 240 min, enquanto o modelo linear não se mostrou confiável para a estimativa de chuvas intensas.
Resumo:
Diferentes modelos matemáticos são utilizados para estimar o potencial de mineralização de N no solo, e os parâmetros estimados com a decomposição anaeróbia podem ser empregados na predição da disponibilidade do N para a cultura do arroz irrigado. Os objetivos deste trabalho foram estimar, a partir de cinco modelos matemáticos, os parâmetros "N potencialmente mineralizável" (N0) e "taxa de mineralização" (k) de diferentes solos de várzea do Rio Grande do Sul (RS) e correlacionar os valores de N0 dos modelos com o N acumulado por plantas de arroz irrigado. O trabalho foi desenvolvido a partir de amostras de solos de várzea coletadas em 15 locais do RS, utilizadas em um experimento de incubação anaeróbia em laboratório, onde foram determinados valores de N mineral da solução do solo ao longo de 24 semanas. A partir dos resultados, foram estimados os parâmetros de acordo com cinco modelos matemáticos. Posteriormente, amostras dos solos foram utilizadas em dois cultivos sucessivos de arroz irrigado, em casa de vegetação, obtendo-se valores da quantidade de N acumulado pelas plantas. O modelo mais bem ajustado na estimativa do N0 e k para a média dos 15 solos de várzea do RS foi o de Jones. Entretanto, o N0 do modelo de Stanford & Smith foi o que melhor se correlacionou com a quantidade de N acumulado pelas plantas de arroz irrigado no primeiro cultivo, enquanto o N0 do modelo de Jones foi o que melhor se correlacionou com o N acumulado pelas plantas no segundo cultivo.