989 resultados para MODELOS ARIMA
Resumo:
Tendo em vista o controle da porosidade da matriz polimérica de micropartículas constituídas por blendas de poli(hidroxibutirato-co-hidroxivalerato) [P(HBHV)] e de poli- ε-caprolactona (PCL), o presente trabalho objetivou verificar a possibilidade de controle da liberação de fármacos associados a esses sistemas. Foram preparadas micropartículas constituídas de blendas de P(HBHV):PCL nas proporções de 100:0, 90:10 e 80:20 (m/m) pelo método de emulsificação/evaporação de solvente, variandose o volume de fase orgânica. Os modelos de fármacos utilizados foram a dexametasona e o acetato de dexametasona. As micropartículas obtidas apresentaram rendimento e eficiência de encapsulação satisfatória, entretanto, através de análises por microscopia óptica e microscopia eletrônica de varredura foi evidenciada a ocorrência de cristais de fármaco não encapsulado. Os diâmetros de partícula permaneceram em torno de 100 a 200 μm e variaram em função do volume de fase orgânica. A área superficial foi afetada pelo percentual de PCL na blenda e pela presença de cristais do fármaco nas formulações. A análise térmica das amostras demonstrou que o processo de obtenção alterou a estrutura cristalina do P(HBHV) e que a encapsulação dos fármacos levou à variação da sua temperatura de transição vítrea e cristalinidade. Os perfis de dissolução da dexametasona a partir das micropartículas apresentaram ajustes adequados ao modelo monoexponencial e foram semelhantes aos perfis apresentados pelo fármaco não encapsulado. Nas formulações contendo acetato de dexametasona houve liberação sustentada do fármaco por até 250 horas quando associado aos sistemas e a modelagem matemática indicou ajuste dos perfis ao modelo biexponencial. Evidenciou-se um aumento nos valores das constantes de liberação dos fármacos conforme o acréscimo do conteúdo de PCL na blenda.
Resumo:
Este trabalho analisa as propriedades de uma nova medida de má especificação de modelos de apreçamento, que está relacionada com o tamanho do ajuste multiplicativo necessário para que o modelo seja corretamente especificado. A partir disso, caracterizamos o parâmetro que minimiza a medida a partir de um programa dual, de solução mais simples. Os estimadores naturais para esse parâmetro pertencem à classe de Generalized Empirical Likelihood. Derivamos as propriedades assintóticas deste estimador sob a hipótese de má especificação. A metodologia é empregada para estudar como se comportam em amostras finitas as estimativas de aversão relativa ao risco em uma economia de desastres quando os estimadores estão associados a nossa medida de má especificação. Nas simulações vemos que em média a aversão ao risco é superestimada, mesmo quando ocorre um número significativo de desastres.
Resumo:
O objetivo deste trabalho foi investigar como fazer os alunos modelarem mentalmente os enunciados de problemas de papel-e-lápis a fim de entendê-los e resolvê-los baseados em procedimentos analíticos e não buscando uma “fórmula”. Foram realizados cinco estudos empíricos com alunos universitários dos cursos de Engenharia e Física da Pontifícia Universidade Católica do Rio Grande do Sul, cursando a disciplina de Mecânica Geral. Foi utilizada uma metodologia qualitativa baseada em depoimentos verbais (durante aulas exclusivas de problemas e entrevistas semi-estruturadas) e escritos (em testes e exames) durante o período de 1998 e 2004. O trabalho está subsidiado teoricamente pelas teorias dos modelos mentais de Johnson-Laird e dos campos conceituais de Vergnaud, tendo como teoria educacional subjacente, a teoria educacional da aprendizagem significativa de Ausubel. Resultados da pesquisa parecem dar suporte para a hipótese da autora, segundo a qual a representação mental dos enunciados dos problemas, apresentados acompanhados ou não por uma representação pictórica, podem ser facilitados pelo ensino explícito da modelagem física das situações envolvidas. Os conhecimentos-em-ação que os estudantes usam, como se pode inferir de suas soluções verbais e escritas, identificaram algumas características em seus desempenhos que pode ajudar com que os professores entendam os processos que eles usam durante as atividades de resolução de problemas, com possíveis conseqüências para os procedimentos usados pelos professores com relação ao ensino.
Resumo:
O 3’3-ditrifluormetildifenil disseleneto (DFDD) é um composto organoselenado análogo ao disseleneto de difenila (DPDS). No entanto, diferentemente do DPDS, maiores estudos em relação às atividades biológicas do DFDD ainda permanecem escassos na literatura. Com o objetivo de ampliar o conhecimento dos efeitos biológicos do DFDD, nesse estudo investigou-se a interferência desta molécula no neurocomportamento em camundongos. Além disso, as atividades genotóxicas deste organoselenado em linhagens de Salmonella typhimurium, Saccharomyces cerevisiae e em células de mamíferos em cultura (células V79) também foram avaliadas. Nos ensaios neurocomportamentais em camundongos, o DFDD apresentou uma interessante atividade bloqueadora da estereotipia induzida por apomorfina, que é um modelo animal de esquizofrenia, sem agir sobre outros parâmetros importantes como a memória, ansiedade, exploração e locomoção detectados nas tarefas de esquiva inibitória, campo aberto e habituação a um novo ambiente. Demonstrou-se também neste trabalho que o DFDD não foi mutagênico no Teste Salmonella/microssoma tanto na presença quanto na ausência de ativação metabólica. Entretanto, em linhagens de S. cerevisiae, o DFDD induziu mutações “forward” e reversa, porém lócus não-específico. Diferentemente do seu análogo estrutural DPDS, o DFDD não foi capaz de induzir mutações “frameshift” em S. typhimurium ou S. cerevisiae mesmo quando as linhagens foram tratadas em condições de crescimento. Deste modo, sugere-se que o DFDD não é capaz de se intercalar entre as bases do DNA e que, possivelmente, este efeito seja provocado por um impedimento alostérico causado pelos grupamentos CF3 presentes neste organoselenado. Além disso, o DFDD mostrou-se um fraco agente citotóxico e genotóxico em S. cerevisiae e células V79. Por outro lado, como foi demonstrado no Teste Salmonella/microssoma, o DFDD apresentou um efeito protetor contra a mutagenicidade induzida por peróxido de hidrogênio. De maneira interessante, utilizando um ensaio in vitro, mostrou-se que o DFDD possui uma atividade “catalase-like” até o momento não apresentada por nenhum outro composto organoselenado. No presente trabalho tornou-se evidente também que o DFDD atua de maneira distinta do seu análogo DPDS em vários modelos experimentais e que, provavelmente, os grupamentos CF3 presentes no DFDD sejam de fundamental importância para as interessantes atividades demonstradas por este disseleneto.
Resumo:
Mandelbrot (1971) demonstrou a importância de considerar dependências de longo prazo na precificação de ativos - o método tradicional para mensurá-las, encontrado em Hurst (1951), faz uso da estatística R/S. Paralelamente a isso, Box e Jenkins (1976; edição original de 1970) apresentaram sua famosa metodologia para determinação da ordem dos parâmetros de modelos desenvolvidos no contexto de processos com memória de curto prazo, conhecidos por ARIMA (acrônimo do inglês Autoregressive Integrated Moving Average). Estimulados pela percepção de que um modelo que pretenda representar fielmente o processo gerador de dados deva explicar tanto a dinâmica de curto prazo quanto a de longo prazo, Granger e Joyeux (1980) e Hosking (1981) introduziram os modelos ARFIMA (de onde o F adicionado vem de Fractionally), uma generalização da classe ARIMA, nos quais a dependência de longo prazo estimada é relacionada ao valor do parâmetro de integração. Pode-se dizer que a partir de então processos com alto grau de persistência passaram a atrair cada vez mais o interesse de pesquisadores, o que resultou no desenvolvimento de outros métodos para estimá-la, porém sem que algum tenha se sobressaído claramente – e é neste ponto que o presente trabalho se insere. Por meio de simulações, buscou-se: (1) classificar diversos estimadores quanto a sua precisão, o que nos obrigou a; (2) determinar parametrizações razoáveis desses, entendidas aqui como aquelas que minimizam o viés, o erro quadrático médio e o desvio-padrão. Após rever a literatura sobre o tema, abordar estes pontos se mostrou necessário para o objetivo principal: elaborar estratégias de negociação baseadas em projeções feitas a partir da caracterização de dependências em dados intradiários, minuto a minuto, de ações e índices de ações. Foram analisadas as séries de retornos da ação Petrobras PN e do Índice Bovespa, com dados de 01/04/2013 a 31/03/2014. Os softwares usados foram o S-Plus e o R.
Resumo:
Com o objetivo de mostrar uma aplicação dos modelos da família GARCH a taxas de câmbio, foram utilizadas técnicas estatísticas englobando análise multivariada de componentes principais e análise de séries temporais com modelagem de média e variância (volatilidade), primeiro e segundo momentos respectivamente. A utilização de análise de componentes principais auxilia na redução da dimensão dos dados levando a estimação de um menor número de modelos, sem contudo perder informação do conjunto original desses dados. Já o uso dos modelos GARCH justifica-se pela presença de heterocedasticidade na variância dos retornos das séries de taxas de câmbio. Com base nos modelos estimados foram simuladas novas séries diárias, via método de Monte Carlo (MC), as quais serviram de base para a estimativa de intervalos de confiança para cenários futuros de taxas de câmbio. Para a aplicação proposta foram selecionadas taxas de câmbio com maior market share de acordo com estudo do BIS, divulgado a cada três anos.
Resumo:
Este trabalho apresenta as principais aplicações de técnicas de gestão de riscos ao estudo de interrupções em cadeias de fornecimento, tendo como motivação o caso do fornecimento de energia elétrica, assunto de extrema relevância para o Brasil. Neste sentido, o cálculo do “custo do déficit” ou perda de produção dada uma falha no fornecimento de energia elétrica (parâmetro utilizado em todo o planejamento do setor elétrico brasileiro), foi escolhido como fator relevante a ser analisado. As principais metodologias existentes para a apuração desse parâmetro são apresentadas fazendo uma comparação com aquela atualmente em uso no Brasil. Adicionalmente, apresentamos uma proposta de implementação para as metodologias alternativas, utilizadas no exterior, e baseadas no conceito de VOLL (“Value of Lost Load”) - medida do valor da escassez de energia para empresas ou consumidores individuais e fundamental para o desenho de programas de gerenciamento de demanda.
Resumo:
This paper presents new methodology for making Bayesian inference about dy~ o!s for exponential famiIy observations. The approach is simulation-based _~t> use of ~vlarkov chain Monte Carlo techniques. A yletropolis-Hastings i:U~UnLlllll 1::; combined with the Gibbs sampler in repeated use of an adjusted version of normal dynamic linear models. Different alternative schemes are derived and compared. The approach is fully Bayesian in obtaining posterior samples for state parameters and unknown hyperparameters. Illustrations to real data sets with sparse counts and missing values are presented. Extensions to accommodate for general distributions for observations and disturbances. intervention. non-linear models and rnultivariate time series are outlined.
Resumo:
We propose mo deIs to analyze animal growlh data wilh lhe aim of eslimating and predicting quanlities of Liological and economical interest such as the maturing rate and asymptotic weight. lt is also studied lhe effect of environmenlal facLors of relevant influence in the growlh processo The models considered in this paper are based on an extension and specialization of the dynamic hierarchical model (Gamerman " Migon, 1993) lo a non-Iinear growlh curve sdLillg, where some of the growth curve parameters are considered cxchangeable among lhe unils. The inferencc for thcse models are appruximale conjugale analysis Lascd on Taylor series cxpallsiulIs aliei linear Bayes procedures.
Resumo:
Estimar e prever a volatilidade de um ativo é uma tarefa muito importante em mercados financeiros. Nosso objetivo neste trabalho é propor o conceito de deformação temporal neste contexto. A idéia é que o mercado modifica-se com a chegada de novas informações, e não com o decorrer do tempo de calendário. Nós estimamos a volatilidade dos retornos do IBOVESPA, aplicando Modelos de Volatilidade Estocástica sem e com Deformação Temporal.
Resumo:
O mercado brasileiro de Telecomunicações e Tecnologia da Informação (TIC) tem importância significativa para o desenvolvimento do Brasil, haja vista a evolução do mercado de telefonia móvel, que cresceu 600% nos últimos dez anos. A indústria de telecomunicações, que representa 4,7 % do PIB brasileiro (TELEBRASIL, 2013), passou a ter uma nova dinâmica a partir da elaboração da Lei Geral de Telecomunicações em 1997 e, posteriormente, com a privatização do setor. Esta rápida transformação da cadeia de valor do setor foi também impulsionada pela evolução das tecnologias e de novas arquiteturas de redes. Ademais, a utilização de tecnologias digitais, como aplicativos/APPs e a própria internet, tornou a cadeia de telecomunicações mais complexa, possibilitando o surgimento de novos atores e o desenvolvimento de novos serviços, modelos de negócios e precificação (SCHAPIRO e VARIAN, 2003). Este estudo tem como objetivo analisar os direcionadores e barreiras na adoção de novos modelos de precificação de serviços no mercado brasileiro de telecomunicações, considerando a transformação e evolução do setor. O estudo foi elaborado por meio de uma estratégia de pesquisa qualitativo-exploratória e construtivista baseando-se na abordagem Multinível (POZZEBON e DINIZ, 2012), que trabalha o contexto, o processo e as interações entre os grupos sociais relevantes. A partir desta análise, foi possível compreender os critérios, direcionadores e barreiras no processo de adoção de novos modelos de precificação, as quais destacam-se as demandas dos usuários, a alta concorrência e a necessidade de aumento do retorno do investimento como os direcionadores mais relevantes, enquanto que a qualidade das redes, a falta de sistemas, a situação financeira das operadoras, a complexidade da regulamentação e o surgimento de grupos sociais distintos dentro da empresa são apontados como as barreiras mais críticas neste processo. Dentro deste contexto, os modelos de precificação emergentes abrangem o empacotamento de serviços, ofertas por tempo limitado, modelos de patrocínio/gratuidade, em conjunto com exploração de novas áreas de negócios. Este estudo proporciona uma contribuição prática e acadêmica na medida em que permite uma melhor compreensão do dinamismo do mercado e suporte para as áreas de marketing estratégico e tático das operadoras, bem como na formulação de políticas e regulamentação do setor.
Resumo:
O objetivo deste estudo é propor a implementação de um modelo estatístico para cálculo da volatilidade, não difundido na literatura brasileira, o modelo de escala local (LSM), apresentando suas vantagens e desvantagens em relação aos modelos habitualmente utilizados para mensuração de risco. Para estimação dos parâmetros serão usadas as cotações diárias do Ibovespa, no período de janeiro de 2009 a dezembro de 2014, e para a aferição da acurácia empírica dos modelos serão realizados testes fora da amostra, comparando os VaR obtidos para o período de janeiro a dezembro de 2014. Foram introduzidas variáveis explicativas na tentativa de aprimorar os modelos e optou-se pelo correspondente americano do Ibovespa, o índice Dow Jones, por ter apresentado propriedades como: alta correlação, causalidade no sentido de Granger, e razão de log-verossimilhança significativa. Uma das inovações do modelo de escala local é não utilizar diretamente a variância, mas sim a sua recíproca, chamada de “precisão” da série, que segue uma espécie de passeio aleatório multiplicativo. O LSM captou todos os fatos estilizados das séries financeiras, e os resultados foram favoráveis a sua utilização, logo, o modelo torna-se uma alternativa de especificação eficiente e parcimoniosa para estimar e prever volatilidade, na medida em que possui apenas um parâmetro a ser estimado, o que representa uma mudança de paradigma em relação aos modelos de heterocedasticidade condicional.
Previsão da expedição de papelão ondulado a partir de modelos com variáveis agregadas e desagregadas
Resumo:
O presente trabalho visa comparar o poder preditivo das previsões feitas a partir de diferentes metodologias aplicadas para a série de expedição brasileira de papelão ondulado. Os dados de expedição de papelão ondulado serão decompostos pelas categorias industriais de destino das caixas e serão feitos modelos do tipo SARIMA univariados para cada setor. As previsões das séries desagregadas serão então agregadas, para compor a previsão da série total de expedição. A previsão feita a partir da somatória das categorias industriais será comparada com um SARIMA univariado da série agregada, a fim de verificar qual dos dois métodos resulta em um modelo com melhor acurácia. Essa comparação será feita a partir da metodologia desenvolvida por Diebold e Mariano (1995).
Resumo:
O objetivo desta Tese é compreender o papel dos estados brasileiros nas relações intergovernamentais no Brasil. Especificamente, busca-se analisar se os mesmos podem desempenhar um papel de coordenação estadual, como o governo federal o faz em algumas Federações com a finalidade de reduzir diversidades, principalmente, desigualdades socioeconômicas e institucionais. Essa relação é analisada na Educação, já que a Constituição Federal de 1988 determinou que estados e municípios compartilhem competências na oferta do ensino fundamental e que deve haver colaboração, especialmente, nessa etapa do ensino. No entanto, a trajetória dessa política é caracterizada por uma grande diversidade na sua oferta e na cooperação entre os estados e os municípios, na medida em que o regime de colaboração nunca foi regulamentado. A pesquisa envolveu o entendimento sobre a trajetória da política educacional, o funcionamento do Sistema Nacional de Educação, as relações entre estados e municípios na Educação, os resultados da cooperação nas políticas municipais de Educação em quatro estados – Ceará, Mato Grosso do Sul, Pará e São Paulo – e nos resultados educacionais. Como resultado, conclui-se que há diferentes modelos de cooperação entre os governos subnacionais na Educação, sendo que, somente o caso cearense se caracteriza como de coordenação estadual.