1000 resultados para Modelos de ajuste parcial


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Resumen tomado de la publicaci??n

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Resumen tomado del autor

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La gestión del riesgo de liquidez es fundamental en las instituciones de seguridad social como el ISSFA -más aún cuando sus fuentes de ingreso dependen exclusivamente de la caja fiscal-, cuyo fondo de liquidez estructurado con parte de sus reservas, se mantienen en inversiones en el sistema financiero con rendimientos reales negativos por aplicación normativa del Banco Central. La presente investigación de carácter descriptivo, analiza el comportamiento de las prestaciones y del fondo de liquidez en el periodo 2012-2014, identificando ineficiencias en el uso de los recursos producto de la metodología presupuestaria utilizada para determinar el monto del fondo, por lo que se plantea la aplicación de modelos como el VaR Paramétrico, VaR Histórico y de volatilidad condicional GARCH, para el cálculo del máximo requerimiento de liquidez como base para la definición de un fondo óptimo. Se aplican los modelos sobre la serie de diferencias logarítmicas de los pagos diarios de la prestación de salud del periodo 2010-2014, que presenta alta volatilidad afectada por la naturaleza estocástica de la contingencia que genera la prestación y por factores de riesgo operativo, siendo necesario un ajuste a la fórmula del VaR por cuanto no se calcula la máxima pérdida esperada sino el máximo requerimiento de liquidez. El VaR Paramétrico y el VaR Histórico no generan resultados consistentes sobreestimado el requerimiento de liquidez. El VaR calculado con la esperanza y varianza estimados con el modelo GARCH, tiene un mejor ajuste con los datos reales ya que captura eventos de alta y baja volatilidad, permite reducir en un 84,3% el nivel de excedentes de liquidez observado en el periodo 2012-2014 en la seguridad social militar lo que favorecería la capitalización de sus reservas, siendo una base adecuada para la determinación del fondo de liquidez tomando como referencia el valor mínimo del coeficiente de cobertura de liquidez que recomienda el Comité de Basilea para la gestión del riesgo de liquidez, por lo que se recomienda el uso de este modelo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta dissertação analisa a evolução da irregularidade longitudinal de pavimentos, devida à execução de recapes em concreto asfáltico. Consideraram-se nove trechos de rodovias, totalizando aproximadamente 265 km, com estruturas representativas da malha viária do Estado do Rio Grande do Sul. Registraram-se irregularidades antes e após o recape, e as reduções medidas foram comparadas com valores previstos pelos modelos linear e bilinear propostos pelo programa HDM-4 do Banco Mundial. As diferenças entre reduções previstas e medidas alertaram para a necessidade de ajuste dos modelos em alguns casos, levando em conta as estruturas dos pavimentos e as espessuras de recape analisadas. Propõe-se nesta dissertação valores para os parâmetros ajustáveis dos modelos, com cuja aplicação foram minimizadas as diferenças entre as reduções medidas e previstas. De forma complementar, desenvolveu-se um estudo de sensibilidade para determinar o efeito que as diferenças, por ventura existentes, entre espessuras projetadas e executadas de recape poderiam ter na redução da irregularidade. Também, por meio de uma análise estatística, obteve-se um modelo para previsão da redução da irregularidade em função da espessura do recape e da irregularidade anterior à execução do mesmo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A sustentabilidade da dívida pública brasileira no período entre dezembro de 1997 e junho de 2004 é testada nesse trabalho. Além disso, estima- se como o governo a justa em valor presente os impostos e gastos futuros diante de um choque nestas variáveis. Para testar a sustentabilidade, dois tipos de testes são aplicados: o primeiro segue a metodologia de coin- tegração presente nos modelos desenvolvidos por Hakkio e Rush (1991) e Bohn (1991); e o segundo baseia-se na reação do superávit primário a mudanças na razão dívida-PIB, como demonstrado por Bohn (1998). Para estes testes, utiliza-se séries como proporção do PIB, pois são as variáveis de relevância para o governo na condução da política fiscal. Os resultados dos três modelos indicam sustentabilidade da dívida pública brasileira. Sob a confirmação empírica de que a dívida é sustentável, o modelo desenvolvido por Bohn (1991) foi aplicado para avaliar como o governo reage a inovações nos gastos ou nos impostos de modo a manter a relação de equilíbrio de longo prazo do seu orçamento. Os resultados indicam que o governo reage com aumento de impostos quando a economia sofre choques nas variáveis fiscais. Isto resulta da exogeneidade fraca dos gastos no modelo de correção-de-erro estimado.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Pesquisas de opinião freqüentemente utilizam questionários com muitos itens para avaliar um serviço ou produto. Nestas pesquisas, cada respondente, além de avaliar os itens segundo seu grau de satisfação ou concordância, deve também atribuir um grau de importância ao item. Com estas duas informações disponíveis para cada item, é possível criar uma medida resumo, na forma de um escore total composto pela avaliação dos itens ponderada pela sua importância. O objetivo desta tese é modelar a importância dos itens por meio de um modelo de Desdobramento Graduado Generalizado, pertencente à família de modelos da Teoria de Resposta ao Item. Resultados de uma pesquisa sobre academia de ginástica mostram que o modelo tem bom ajuste neste caso, e simulações mostram que é possível, com a utilização do modelo, montar desenhos experimentais para diminuir o número de itens ou categorias de resposta a serem perguntados aos respondentes sem perda de informação.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A presente dissertação abordou a construção de modelos de satisfação dos consumidores para vários tipos de serviços, através da identificação dos determinantes da satisfação e respectivas relações causais. Para conduzir o estudo, foi selecionada uma tipologia de serviços e escolhidas organizações caracterizadas dentro dos quatro tipos de serviços selecionados. Foram definidos os determinantes a serem incluídos nos modelos baseado no referencial teórico sobre satisfação do consumidor. Os modelos de causa e efeito para a satisfação do consumidor dos serviços avaliados (restaurante à la carte, escola de línguas, tele-entrega e estação de rádio) foram construídos a partir de pesquisa a clientes destes tipos de serviço e foram validados tecnicamente através de entrevistas às organizações escolhidas. Uma vez comparados os modelos obtidos, constatou-se que existem diferenças significativas entre eles, em função das características particulares de cada tipo de serviço, descartando-se a possibilidade de um modelo único adaptar-se ao comportamento dos quatro tipos de serviços. A comparação com os modelos apresentados na literatura revelou que não existe nenhum modelo que se ajuste aos modelos obtidos para cada tipo de serviço, encontrando-se algumas convergências e outras divergências no que concerne aos determinantes e suas relações causais.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O principal objetivo da tese foi desenvolver um modelo matemático computacional espacialmente explícito, de autômatos celulares (CA), capaz de simular a dinâmica de vegetação campestre sob pastejo, descrita por tipos funcionais de plantas (PFTs), ao invés de espécies. Com dados obtidos a campo, utilizou-se um método recursivo de identificação politética de PFTs a partir de atributos morfológicos das plantas, de forma a expressar máxima correlação com diversidade de espécies. A alternância entre condições experimentais de exposição e exclusão de pastejo permitiu produzir variação em padrões espaciais e temporais da composição da vegetação descrita por esses PFTs. A seguir buscou-se modelar a dinâmica da vegetação. Assumiu-se que a dinâmica da vegetação, embora complexa, pudesse ser simulada a partir de mecanismos relativamente simples incorporados a um modelo CA formado por uma grade de células (comunidades). Cada célula tem uma dada composição de PFTs a qual se altera a cada passo no tempo conforme a composição da própria célula e da vizinhança e matrizes de transição determinadas empiricamente com os dados experimentais. A dinâmica simulada da composição de comunidades excluídas do pastejo mostrou determinismo no sentido de um PFT único, característico daquelas comunidades. A mesma tendência não foi observada nas simulações de comunidades sempre pastejadas. Os resultados indicam uma razoável concordância entre a dinâmica simulada e real, para as comunidades excluídas; e uma discordância para as comunidades sempre pastejadas. Sugere-se que diferenças no arranjo espacial inicial das comunidades motivam falhas do modelo sob pastejo. O Institut National de la Recherche Agronomique (INRA), na França, vem desenvolvendo um modelo simulador multi-agente espacializado como objetivo de representar realisticamente o manejo da vegetação campestre natural sob diferentes regimes de pastejo. Ele foi concebido como uma ferramenta de pesquisa para explorar o comportamento animal em pastagens heterogêneas Nesse modelo implícito e determinístico, uma definição funcional de três diferentes comunidades vegetais foi introduzida objetivando simular a dinâmica de pastagens multi-espécies. Isto foi feito pela intercambio de parâmetros do modelo com atributos funcionais da comunidade. Do ponto vista conceptual o modelo apresentou boa resposta e parece adequado para simular a dinâmica de uma vegetação campestre por atributos funcionais. O modelo apresentou um bom ajuste aos dados experimentais para alto nível de utilização, mas não tão bom para médio e baixo nível de pastejo, ou seja, comunidades vegetais mais heterogêneas. Reforça-se a idéia de que mais modelos que levem em conta a estrutura horizontal da vegetação são necessários.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Apresento aqui uma abordagem que unifica a literatura sobre os vários modelos de apreçamento de derivativos que consiste em obter por argumentos intuitivos de não arbitragem uma Equação Diferencial Parcial(EDP) e através do método de Feynman-Kac uma solução que é representada por uma esperança condicional de um processo markoviano do preço do derivativo descontado pela taxa livre de risco. Por este resultado, temos que a esperança deve ser tomada com relação a processos que crescem à taxa livre de risco e por este motivo dizemos que a esperança é tomada em um mundo neutro ao risco(ou medida neutra ao risco). Apresento ainda como realizar uma mudança de medida pertinente que conecta o mundo real ao mundo neutro ao risco e que o elemento chave para essa mudança de medida é o preço de mercado dos fatores de risco. No caso de mercado completo o preço de mercado do fator de risco é único e no caso de mercados incompletos existe uma variedade de preços aceitáveis para os fatores de risco pelo argumento de não arbitragem. Neste último caso, os preços de mercado são geralmente escolhidos de forma a calibrar o modelo com os dados de mercado.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O mercado de crédito vem ganhando constantemente mais espaço na economia brasileira nos últimos anos. Haja vista isto, o risco de crédito, que tenta medir a perda com operações de crédito, tem fundamental importância e, neste contexto, a perda esperada é, sem dúvida, tema chave. Usualmente, a perda esperada relativa, EL (%), é modelada como o produto dos parâmetros de risco PD (probabilidade de default) e LGD (perda dado o default) pressupondo a independência dos mesmos. Trabalhos recentes mostram que pode haver oportunidade em melhorar o ajuste com a modelagem conjunta da perda, além da retirada da forte premissa de independência dos fatores. O presente trabalho utiliza a distribuição beta inflacionada, modelo BEINF da classe GAMLSS, para o ajuste da perda esperada relativa através de uma base de dados reais disponibilizada pela empresa Serasa Experian. Os resultados mostram que o modelo traz um bom ajuste e que há oportunidade de ganhos em sua utilização na modelagem da EL(%).O mercado de crédito vem ganhando constantemente mais espaço na economia brasileira nos últimos anos. Haja vista isto, o risco de crédito, que tenta medir a perda com operações de crédito, tem fundamental importância e, neste contexto, a perda esperada é, sem dúvida, tema chave. Usualmente, a perda esperada relativa, EL (%), é modelada como o produto dos parâmetros de risco PD (probabilidade de default) e LGD (perda dado o default) pressupondo a independência dos mesmos. Trabalhos recentes mostram que pode haver oportunidade em melhorar o ajuste com a modelagem conjunta da perda, além da retirada da forte premissa de independência dos fatores. O presente trabalho utiliza a distribuição beta inflacionada, modelo BEINF da classe GAMLSS, para o ajuste da perda esperada relativa através de uma base de dados reais disponibilizada pela empresa Serasa Experian. Os resultados mostram que o modelo traz um bom ajuste e que há oportunidade de ganhos em sua utilização na modelagem da EL(%).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Tendo em vista o controle da porosidade da matriz polimérica de micropartículas constituídas por blendas de poli(hidroxibutirato-co-hidroxivalerato) [P(HBHV)] e de poli- ε-caprolactona (PCL), o presente trabalho objetivou verificar a possibilidade de controle da liberação de fármacos associados a esses sistemas. Foram preparadas micropartículas constituídas de blendas de P(HBHV):PCL nas proporções de 100:0, 90:10 e 80:20 (m/m) pelo método de emulsificação/evaporação de solvente, variandose o volume de fase orgânica. Os modelos de fármacos utilizados foram a dexametasona e o acetato de dexametasona. As micropartículas obtidas apresentaram rendimento e eficiência de encapsulação satisfatória, entretanto, através de análises por microscopia óptica e microscopia eletrônica de varredura foi evidenciada a ocorrência de cristais de fármaco não encapsulado. Os diâmetros de partícula permaneceram em torno de 100 a 200 μm e variaram em função do volume de fase orgânica. A área superficial foi afetada pelo percentual de PCL na blenda e pela presença de cristais do fármaco nas formulações. A análise térmica das amostras demonstrou que o processo de obtenção alterou a estrutura cristalina do P(HBHV) e que a encapsulação dos fármacos levou à variação da sua temperatura de transição vítrea e cristalinidade. Os perfis de dissolução da dexametasona a partir das micropartículas apresentaram ajustes adequados ao modelo monoexponencial e foram semelhantes aos perfis apresentados pelo fármaco não encapsulado. Nas formulações contendo acetato de dexametasona houve liberação sustentada do fármaco por até 250 horas quando associado aos sistemas e a modelagem matemática indicou ajuste dos perfis ao modelo biexponencial. Evidenciou-se um aumento nos valores das constantes de liberação dos fármacos conforme o acréscimo do conteúdo de PCL na blenda.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho analisa as propriedades de uma nova medida de má especificação de modelos de apreçamento, que está relacionada com o tamanho do ajuste multiplicativo necessário para que o modelo seja corretamente especificado. A partir disso, caracterizamos o parâmetro que minimiza a medida a partir de um programa dual, de solução mais simples. Os estimadores naturais para esse parâmetro pertencem à classe de Generalized Empirical Likelihood. Derivamos as propriedades assintóticas deste estimador sob a hipótese de má especificação. A metodologia é empregada para estudar como se comportam em amostras finitas as estimativas de aversão relativa ao risco em uma economia de desastres quando os estimadores estão associados a nossa medida de má especificação. Nas simulações vemos que em média a aversão ao risco é superestimada, mesmo quando ocorre um número significativo de desastres.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O presente trabalho tem como objetivo avaliar a capacidade preditiva de modelos econométricos de séries de tempo baseados em indicadores macroeconômicos na previsão da inflação brasileira (IPCA). Os modelos serão ajustados utilizando dados dentro da amostra e suas projeções ex-post serão acumuladas de um a doze meses à frente. As previsões serão comparadas a de modelos univariados como autoregressivo de primeira ordem - AR(1) - que nesse estudo será o benchmark escolhido. O período da amostra vai de janeiro de 2000 até agosto de 2015 para ajuste dos modelos e posterior avaliação. Ao todo foram avaliadas 1170 diferentes variáveis econômicas a cada período a ser projetado, procurando o melhor conjunto preditores para cada ponto no tempo. Utilizou-se o algoritmo Autometrics para a seleção de modelos. A comparação dos modelos foi feita através do Model Confidence Set desenvolvido por Hansen, Lunde e Nason (2010). Os resultados obtidos nesse ensaio apontam evidências de ganhos de desempenho dos modelos multivariados para períodos posteriores a 1 passo à frente.