988 resultados para MODELOS ESTOCÁSTICOS


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os direitos autorais encontram-se no centro do mundo. Se antes interessavam apenas a quem publicava livros, gravava músicas ou produzia filmes, hoje os direitos autorais dizem respeito a todos os que acessam a internet. Afinal, o recente desenvolvimento tecnológico passou a permitir que obras culturais sejam produzidas e distribuídas diariamente no universo digital. Contudo, as leis de direitos autorais no Brasil não estão adequadas às práticas do tempo presente. Por isso, iniciativas inovadoras, que surgem em conformidade com a lei e que têm por objetivo aproximar o artista do público, vêm ganhando importância. Este livro é sobre uma dessas iniciativas - as licenças Creative Commons. Por meio das licenças Creative Commons o autor pode comunicar ao público o modo como ele permite que sua obra seja usada. A partir de uma variedade de seis licenças (que permitem desde a simples cópia até a exploração comercial da obra, conforme escolha do autor), as obras licenciadas podem fomentar a educação, incentivar a criação de obras derivadas ou permitir projetos colaborativos. Tudo de acordo com a vontade do autor e em favor de um mundo mais criativo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho compara modelos de séries temporais para a projeção de curto prazo da inflação brasileira, medida pelo Índice de Preços ao Consumidor Amplo (IPCA). Foram considerados modelos SARIMA de Box e Jenkins e modelos estruturais em espaço de estados, estimados pelo filtro de Kalman. Para a estimação dos modelos, foi utilizada a série do IPCA na base mensal, de março de 2003 a março de 2012. Os modelos SARIMA foram estimados no EVIEWS e os modelos estruturais no STAMP. Para a validação dos modelos para fora da amostra, foram consideradas as previsões 1 passo à frente para o período de abril de 2012 a março de 2013, tomando como base os principais critérios de avaliação de capacidade preditiva propostos na literatura. A conclusão do trabalho é que, embora o modelo estrutural permita, decompor a série em componentes com interpretação direta e estudá-las separadamente, além de incorporar variáveis explicativas de forma simples, o desempenho do modelo SARIMA para prever a inflação brasileira foi superior, no período e horizonte considerados. Outro importante aspecto positivo é que a implementação de um modelo SARIMA é imediata, e previsões a partir dele são obtidas de forma simples e direta.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O mercado de crédito vem ganhando constantemente mais espaço na economia brasileira nos últimos anos. Haja vista isto, o risco de crédito, que tenta medir a perda com operações de crédito, tem fundamental importância e, neste contexto, a perda esperada é, sem dúvida, tema chave. Usualmente, a perda esperada relativa, EL (%), é modelada como o produto dos parâmetros de risco PD (probabilidade de default) e LGD (perda dado o default) pressupondo a independência dos mesmos. Trabalhos recentes mostram que pode haver oportunidade em melhorar o ajuste com a modelagem conjunta da perda, além da retirada da forte premissa de independência dos fatores. O presente trabalho utiliza a distribuição beta inflacionada, modelo BEINF da classe GAMLSS, para o ajuste da perda esperada relativa através de uma base de dados reais disponibilizada pela empresa Serasa Experian. Os resultados mostram que o modelo traz um bom ajuste e que há oportunidade de ganhos em sua utilização na modelagem da EL(%).O mercado de crédito vem ganhando constantemente mais espaço na economia brasileira nos últimos anos. Haja vista isto, o risco de crédito, que tenta medir a perda com operações de crédito, tem fundamental importância e, neste contexto, a perda esperada é, sem dúvida, tema chave. Usualmente, a perda esperada relativa, EL (%), é modelada como o produto dos parâmetros de risco PD (probabilidade de default) e LGD (perda dado o default) pressupondo a independência dos mesmos. Trabalhos recentes mostram que pode haver oportunidade em melhorar o ajuste com a modelagem conjunta da perda, além da retirada da forte premissa de independência dos fatores. O presente trabalho utiliza a distribuição beta inflacionada, modelo BEINF da classe GAMLSS, para o ajuste da perda esperada relativa através de uma base de dados reais disponibilizada pela empresa Serasa Experian. Os resultados mostram que o modelo traz um bom ajuste e que há oportunidade de ganhos em sua utilização na modelagem da EL(%).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Tendo em vista o controle da porosidade da matriz polimérica de micropartículas constituídas por blendas de poli(hidroxibutirato-co-hidroxivalerato) [P(HBHV)] e de poli- ε-caprolactona (PCL), o presente trabalho objetivou verificar a possibilidade de controle da liberação de fármacos associados a esses sistemas. Foram preparadas micropartículas constituídas de blendas de P(HBHV):PCL nas proporções de 100:0, 90:10 e 80:20 (m/m) pelo método de emulsificação/evaporação de solvente, variandose o volume de fase orgânica. Os modelos de fármacos utilizados foram a dexametasona e o acetato de dexametasona. As micropartículas obtidas apresentaram rendimento e eficiência de encapsulação satisfatória, entretanto, através de análises por microscopia óptica e microscopia eletrônica de varredura foi evidenciada a ocorrência de cristais de fármaco não encapsulado. Os diâmetros de partícula permaneceram em torno de 100 a 200 μm e variaram em função do volume de fase orgânica. A área superficial foi afetada pelo percentual de PCL na blenda e pela presença de cristais do fármaco nas formulações. A análise térmica das amostras demonstrou que o processo de obtenção alterou a estrutura cristalina do P(HBHV) e que a encapsulação dos fármacos levou à variação da sua temperatura de transição vítrea e cristalinidade. Os perfis de dissolução da dexametasona a partir das micropartículas apresentaram ajustes adequados ao modelo monoexponencial e foram semelhantes aos perfis apresentados pelo fármaco não encapsulado. Nas formulações contendo acetato de dexametasona houve liberação sustentada do fármaco por até 250 horas quando associado aos sistemas e a modelagem matemática indicou ajuste dos perfis ao modelo biexponencial. Evidenciou-se um aumento nos valores das constantes de liberação dos fármacos conforme o acréscimo do conteúdo de PCL na blenda.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho analisa as propriedades de uma nova medida de má especificação de modelos de apreçamento, que está relacionada com o tamanho do ajuste multiplicativo necessário para que o modelo seja corretamente especificado. A partir disso, caracterizamos o parâmetro que minimiza a medida a partir de um programa dual, de solução mais simples. Os estimadores naturais para esse parâmetro pertencem à classe de Generalized Empirical Likelihood. Derivamos as propriedades assintóticas deste estimador sob a hipótese de má especificação. A metodologia é empregada para estudar como se comportam em amostras finitas as estimativas de aversão relativa ao risco em uma economia de desastres quando os estimadores estão associados a nossa medida de má especificação. Nas simulações vemos que em média a aversão ao risco é superestimada, mesmo quando ocorre um número significativo de desastres.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo deste trabalho foi investigar como fazer os alunos modelarem mentalmente os enunciados de problemas de papel-e-lápis a fim de entendê-los e resolvê-los baseados em procedimentos analíticos e não buscando uma “fórmula”. Foram realizados cinco estudos empíricos com alunos universitários dos cursos de Engenharia e Física da Pontifícia Universidade Católica do Rio Grande do Sul, cursando a disciplina de Mecânica Geral. Foi utilizada uma metodologia qualitativa baseada em depoimentos verbais (durante aulas exclusivas de problemas e entrevistas semi-estruturadas) e escritos (em testes e exames) durante o período de 1998 e 2004. O trabalho está subsidiado teoricamente pelas teorias dos modelos mentais de Johnson-Laird e dos campos conceituais de Vergnaud, tendo como teoria educacional subjacente, a teoria educacional da aprendizagem significativa de Ausubel. Resultados da pesquisa parecem dar suporte para a hipótese da autora, segundo a qual a representação mental dos enunciados dos problemas, apresentados acompanhados ou não por uma representação pictórica, podem ser facilitados pelo ensino explícito da modelagem física das situações envolvidas. Os conhecimentos-em-ação que os estudantes usam, como se pode inferir de suas soluções verbais e escritas, identificaram algumas características em seus desempenhos que pode ajudar com que os professores entendam os processos que eles usam durante as atividades de resolução de problemas, com possíveis conseqüências para os procedimentos usados pelos professores com relação ao ensino.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O 3’3-ditrifluormetildifenil disseleneto (DFDD) é um composto organoselenado análogo ao disseleneto de difenila (DPDS). No entanto, diferentemente do DPDS, maiores estudos em relação às atividades biológicas do DFDD ainda permanecem escassos na literatura. Com o objetivo de ampliar o conhecimento dos efeitos biológicos do DFDD, nesse estudo investigou-se a interferência desta molécula no neurocomportamento em camundongos. Além disso, as atividades genotóxicas deste organoselenado em linhagens de Salmonella typhimurium, Saccharomyces cerevisiae e em células de mamíferos em cultura (células V79) também foram avaliadas. Nos ensaios neurocomportamentais em camundongos, o DFDD apresentou uma interessante atividade bloqueadora da estereotipia induzida por apomorfina, que é um modelo animal de esquizofrenia, sem agir sobre outros parâmetros importantes como a memória, ansiedade, exploração e locomoção detectados nas tarefas de esquiva inibitória, campo aberto e habituação a um novo ambiente. Demonstrou-se também neste trabalho que o DFDD não foi mutagênico no Teste Salmonella/microssoma tanto na presença quanto na ausência de ativação metabólica. Entretanto, em linhagens de S. cerevisiae, o DFDD induziu mutações “forward” e reversa, porém lócus não-específico. Diferentemente do seu análogo estrutural DPDS, o DFDD não foi capaz de induzir mutações “frameshift” em S. typhimurium ou S. cerevisiae mesmo quando as linhagens foram tratadas em condições de crescimento. Deste modo, sugere-se que o DFDD não é capaz de se intercalar entre as bases do DNA e que, possivelmente, este efeito seja provocado por um impedimento alostérico causado pelos grupamentos CF3 presentes neste organoselenado. Além disso, o DFDD mostrou-se um fraco agente citotóxico e genotóxico em S. cerevisiae e células V79. Por outro lado, como foi demonstrado no Teste Salmonella/microssoma, o DFDD apresentou um efeito protetor contra a mutagenicidade induzida por peróxido de hidrogênio. De maneira interessante, utilizando um ensaio in vitro, mostrou-se que o DFDD possui uma atividade “catalase-like” até o momento não apresentada por nenhum outro composto organoselenado. No presente trabalho tornou-se evidente também que o DFDD atua de maneira distinta do seu análogo DPDS em vários modelos experimentais e que, provavelmente, os grupamentos CF3 presentes no DFDD sejam de fundamental importância para as interessantes atividades demonstradas por este disseleneto.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho tem como objetivo comparar diferentes métodos de previsão de necessidades de caixa no overnight, que assegurem que a liquidez de um produto financeiro específico – neste caso, o Call Deposits (Depósito à Vista, em moeda estrangeira) – seja suficiente para cobrir os riscos de liquidez de uma instituição financeira e, em contrapartida, otimizem o lucro oriundo do saldo restante que ultrapasse o valor de saída destes modelos. Para isso, o modelo de Fluxo de Caixa de Schmaltz (2009), que segrega os diferentes componentes do caixa (determinísticos e estocásticos), será utilizado para determinar as necessidades de caixa e, através do método de Monte Carlo para a previsão de diferentes caminhos, chegamos a um valor médio de saldo para ser utilizado no overnight. Como comparativo, será utilizado o modelo determinístico de Ringbom et al (2004), que oferece a “Taxa de Reserva de Maximização de Lucro”, para, enfim, compará-los historicamente, entre Jan/2009 e Dez/2013, a fim de concluirmos qual dos modelos de reservas de caixa se mostra mais satisfatório. A base de dados utilizada replica os saldos e saques de um banco comercial, para o produto financeiro em questão, e, também, é utilizada para a estimação dos parâmetros.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Com o objetivo de mostrar uma aplicação dos modelos da família GARCH a taxas de câmbio, foram utilizadas técnicas estatísticas englobando análise multivariada de componentes principais e análise de séries temporais com modelagem de média e variância (volatilidade), primeiro e segundo momentos respectivamente. A utilização de análise de componentes principais auxilia na redução da dimensão dos dados levando a estimação de um menor número de modelos, sem contudo perder informação do conjunto original desses dados. Já o uso dos modelos GARCH justifica-se pela presença de heterocedasticidade na variância dos retornos das séries de taxas de câmbio. Com base nos modelos estimados foram simuladas novas séries diárias, via método de Monte Carlo (MC), as quais serviram de base para a estimativa de intervalos de confiança para cenários futuros de taxas de câmbio. Para a aplicação proposta foram selecionadas taxas de câmbio com maior market share de acordo com estudo do BIS, divulgado a cada três anos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho apresenta as principais aplicações de técnicas de gestão de riscos ao estudo de interrupções em cadeias de fornecimento, tendo como motivação o caso do fornecimento de energia elétrica, assunto de extrema relevância para o Brasil. Neste sentido, o cálculo do “custo do déficit” ou perda de produção dada uma falha no fornecimento de energia elétrica (parâmetro utilizado em todo o planejamento do setor elétrico brasileiro), foi escolhido como fator relevante a ser analisado. As principais metodologias existentes para a apuração desse parâmetro são apresentadas fazendo uma comparação com aquela atualmente em uso no Brasil. Adicionalmente, apresentamos uma proposta de implementação para as metodologias alternativas, utilizadas no exterior, e baseadas no conceito de VOLL (“Value of Lost Load”) - medida do valor da escassez de energia para empresas ou consumidores individuais e fundamental para o desenho de programas de gerenciamento de demanda.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This paper presents new methodology for making Bayesian inference about dy~ o!s for exponential famiIy observations. The approach is simulation-based _~t> use of ~vlarkov chain Monte Carlo techniques. A yletropolis-Hastings i:U~UnLlllll 1::; combined with the Gibbs sampler in repeated use of an adjusted version of normal dynamic linear models. Different alternative schemes are derived and compared. The approach is fully Bayesian in obtaining posterior samples for state parameters and unknown hyperparameters. Illustrations to real data sets with sparse counts and missing values are presented. Extensions to accommodate for general distributions for observations and disturbances. intervention. non-linear models and rnultivariate time series are outlined.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

We propose mo deIs to analyze animal growlh data wilh lhe aim of eslimating and predicting quanlities of Liological and economical interest such as the maturing rate and asymptotic weight. lt is also studied lhe effect of environmenlal facLors of relevant influence in the growlh processo The models considered in this paper are based on an extension and specialization of the dynamic hierarchical model (Gamerman " Migon, 1993) lo a non-Iinear growlh curve sdLillg, where some of the growth curve parameters are considered cxchangeable among lhe unils. The inferencc for thcse models are appruximale conjugale analysis Lascd on Taylor series cxpallsiulIs aliei linear Bayes procedures.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Estimar e prever a volatilidade de um ativo é uma tarefa muito importante em mercados financeiros. Nosso objetivo neste trabalho é propor o conceito de deformação temporal neste contexto. A idéia é que o mercado modifica-se com a chegada de novas informações, e não com o decorrer do tempo de calendário. Nós estimamos a volatilidade dos retornos do IBOVESPA, aplicando Modelos de Volatilidade Estocástica sem e com Deformação Temporal.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O mercado brasileiro de Telecomunicações e Tecnologia da Informação (TIC) tem importância significativa para o desenvolvimento do Brasil, haja vista a evolução do mercado de telefonia móvel, que cresceu 600% nos últimos dez anos. A indústria de telecomunicações, que representa 4,7 % do PIB brasileiro (TELEBRASIL, 2013), passou a ter uma nova dinâmica a partir da elaboração da Lei Geral de Telecomunicações em 1997 e, posteriormente, com a privatização do setor. Esta rápida transformação da cadeia de valor do setor foi também impulsionada pela evolução das tecnologias e de novas arquiteturas de redes. Ademais, a utilização de tecnologias digitais, como aplicativos/APPs e a própria internet, tornou a cadeia de telecomunicações mais complexa, possibilitando o surgimento de novos atores e o desenvolvimento de novos serviços, modelos de negócios e precificação (SCHAPIRO e VARIAN, 2003). Este estudo tem como objetivo analisar os direcionadores e barreiras na adoção de novos modelos de precificação de serviços no mercado brasileiro de telecomunicações, considerando a transformação e evolução do setor. O estudo foi elaborado por meio de uma estratégia de pesquisa qualitativo-exploratória e construtivista baseando-se na abordagem Multinível (POZZEBON e DINIZ, 2012), que trabalha o contexto, o processo e as interações entre os grupos sociais relevantes. A partir desta análise, foi possível compreender os critérios, direcionadores e barreiras no processo de adoção de novos modelos de precificação, as quais destacam-se as demandas dos usuários, a alta concorrência e a necessidade de aumento do retorno do investimento como os direcionadores mais relevantes, enquanto que a qualidade das redes, a falta de sistemas, a situação financeira das operadoras, a complexidade da regulamentação e o surgimento de grupos sociais distintos dentro da empresa são apontados como as barreiras mais críticas neste processo. Dentro deste contexto, os modelos de precificação emergentes abrangem o empacotamento de serviços, ofertas por tempo limitado, modelos de patrocínio/gratuidade, em conjunto com exploração de novas áreas de negócios. Este estudo proporciona uma contribuição prática e acadêmica na medida em que permite uma melhor compreensão do dinamismo do mercado e suporte para as áreas de marketing estratégico e tático das operadoras, bem como na formulação de políticas e regulamentação do setor.