790 resultados para Suavização Exponencial
Resumo:
Introdução - A forma tradicional para se estudar a variação espacial de taxas é feita considerando a contagem do número de pessoas em cada área de um mapa em relação à população exposta, denominada taxa bruta. Entretanto, essa representação nem sempre é a melhor, principalmente na presença de população pequena. Objetivos - Utilizar métodos de Epidemiologia Espacial para representar a taxa de fecundidade específica em mulheres de 10 a 19 anos, utilizando como exemplo a cidade de Porto Alegre no ano de 2003 e investigar sua distribuição geográfica por meio de técnicas de Mapeamento de Eventos de Saúde. Métodos - Utilizando-se a base de dados do SINASC e o Censo do IBGE para o ano de 2000, considerando-se as divisões de bairro da cidade de Porto Alegre, construiu-se a taxa de fecundidade específica na adolescência. Métodos de suavização para controlar as flutuações aleatórias do risco foram usados, como o Estimador Bayesiano Empírico Local de Marshall e o Estimador Totalmente Bayesiano. Resultados - No ano de 2003 ocorreram 28 nascidos vivos por mil mulheres de 10 a 19 anos na cidade. Em alguns bairros, a representação bruta revelou valores quase três vezes maiores. Com os métodos de suavização, apresenta-se uma distribuição espacial subjacente mais real e taxas com menor heterogeneidade espacial. Alguns bairros com maiores taxas de maternidade na adolescência encontram-se em regiões com piores condições sócio-econômicas. Conclusões - O método Totalmente Bayesiano mostrou ser o melhor para estimar a variabilidade da taxa de fecundidade específica em mulheres de 10 a 19 anos nos bairros de Porto Alegre, principalmente nos locais onde a população exposta era muito pequena.
Resumo:
Esta dissertação aborda a estimativa das probabilidades de falha de um produto ao longo do período de garantia. As fontes de dados para esta estimativa são a quantidade de produtos vendidos e o número de falhas detectadas em cada mês. Duas metodologias não-paramétricas para esta análise são apresentadas e validadas. A metodologia de análise de dados completos requer o conhecimento da data de venda e de falha de cada produto. A metodologia de análise de dados incompletos requer apenas os totais de vendas e falhas em cada mês ao longo do período de garantia. Para os dois casos, é ainda implementada a suavização das probabilidades de falha estimadas, utilizando distribuições paramétricas Weibull ou Lognormal. As duas técnicas são implementadas em planilha eletrônica e aplicadas na análise de dados simulados. O desempenho de cada metodologia é avaliado com dados de diferentes características, resultando em recomendações para escolha e aplicação da metodologia mais adequada em cada caso
Resumo:
Após o surgimento e a expansão exponencial, a internet evoluiu para uma tecnologia que extrapolou os contornos acadêmicos em que foi criada, desenvolvendo diversas e simultâneas vocações, entre elas, fonte de educação e lazer, armazenamento de informações, rede de computadores, meio de comunicação individual e veículo de mídia de massa. É esta vocação, de veículo de mídia, que provocou o interesse pela pesquisa objeto desta dissertação. A entrada da internet no ambiente de mídia tem renovado o interesse na questão do consumo de mídia. Particularmente, a crescente popularidade como novo meio de comunicação resultou em mudanças nos usos dos meios tradicionais, como teorizado na Teoria do Nicho aplicada à indústria de mídia. O declínio da audiência das grandes redes de TV aberta mostra como o setor vem reagindo à concorrência de novos canais, à emergência de novas plataformas de acesso à programação televisiva e à mudança nos hábitos de consumo de mídia. Esta investigação faz uma revisão da literatura e compara o panorama internacional e especialmente a situação do Brasil, onde as principais emissoras de sinal aberto tentam resistir ao processo de fragmentação do público que se registra mundialmente. Para melhor compreender o que significam tais mudanças, é primordial entender quais as variáveis relevantes no universo dos veículos de mídia. A principal delas é a audiência, que representa o número de pessoas que acessam, veem, leem, ouvem ou consomem determinado meio de comunicação em determinado espaço de tempo. O objetivo deste estudo foi desenvolver um modelo preditivo sobre o tempo despendido pelas pessoas na internet, a partir de informações sociodemográficas e do comportamento dessas pessoas enquanto audiência dos meios de comunicação tradicionais, particularmente a televisão. Como os dados secundários analisados apresentam respostas em categorias ordinais, foi escolhido a regressão logística ordinal como o modelo de probabilidades para realizar esse estudo.
Resumo:
O objetivo desta dissertação é estudar a relevância dos gastos em P&D e Inovação no valor de mercado das empresas da indústria química brasileira. Este foi um tema de grande debate na reestruturação da indústria petroquímica e que resultou na criação da Braskem, a primeira petroquímica integrada brasileira. As justificativas para a referida integração vertical foram a maior capacidade para investimentos em P&D e o aumento do valor das empresas para poderem competir conforme os moldes internacionais. Por outro lado, economistas debatiam sobre o poder de monopólio da nova empresa e, consequentemente, o possível aumento de preços para o consumidor final. Desta forma, foram analisados nesse estudo os dados da indústria química brasileira de 1996 a 2008, obtidos no Anuário da Indústria Química Brasileira. Os modelos foram estimados utilizando estimadores de efeito fixos e aleatórios para um painel de dados não balanceado. A estimação por efeitos fixos foi escolhida, tanto para a estimação do modelo aditivo,quanto para o modelo multiplicativo. Acredita-se que o modelo multiplicativo, além de mais geral, seja o mais adequado para a modelagem de interesse, uma vez que ele trata as diferenças entre o porte das empresas consideradas por meio da linearização, e conseqüente suavização, do modelo. A elasticidade estimada dos gastos em P&D e inovação, com relação aos valores de mercado das empresas, indicou relacionamento positivo entre estes gastos e o aumento de valor das empresas. O coeficiente de 0,26 indica que um aumento de 1% nos gastos com P&D geram, em média, um aumento de 0,26% no valor de mercado destas empresas.
Resumo:
Desde à muito, os temas, capital social e comportamento de cidadania organizacional (CCO) têm sido extensivamente pesquisado e estudados nos EUA, no entanto estes têm recebido pouca relevância a nível de outros contextos internacionais. Se por um lado, a sua importância e inferência na performance dentro do contexto empresarial têm sido crescente, caracterizando a necessidade de um entendimento cada vez maior por parte das empresas, por outro, o investimento das corporações de grande porte, caminham cada vez mais em direção dos países com crescimento exponencial sustentado, como são o BRIC, o que cna uma necessidade fomentada de pesquisa nesta área de pesquisa para estas regiões. Este estudo pretendeu investigar, avaliar e mapear a influência do capital e do CCO na satisfação de vida e desempenho no trabalho do funcionário de nível superior, no contexto empresarial brasileiro e português, com o objetivo de identificar quais as diferenças existentes nestes duas realidade, devido ao investimento crescente do segundo para com o primeiro. Genericamente, encontramos clara influência das dimensões do CCO tanto para o desempenho no trabalho como para a satisfação de vida do trabalhador, assim como presença também marcada das duas dimensões do capital Social. Mais especificamente, foi entendido pelo nosso estudo que a realidade empresarial brasileira necessita que as empresas criem mecanismos que fomentem os laços entre colegas, a conscienciosidade, altruísmo e virtude cívica dos seus funcionários, pois assim aumentará o desempenho. Já para o contexto português, apenas a conscienciosidade e a virtude apresentaram significativa relação. Desta forma, conclui-se que para o investimento das empresas português no Brasil, estas precisam ter atenção à dimensão estrutural - relação com colegas - promovendo-a e à necessidade patente que os brasileiros têm de ajudar os seus colegas - comportamento altruísta - para aumentar o desempenho no trabalho. No que se refere a satisfação de vida, que se mostrou estreitamente relacionada com o desempenho, o brasileiro apenas precisa notar confiança nos colegas, senti-se altruísta e consciencioso, ao passo que o português necessita criar fortes laços com os colegas, mas não fomentar o comportamento altruístico. Desta forma as empresas investidoras apenas precisam ter atenção mais uma vez a necessidade de prestar ajuda especifica que o brasileiro sente, promovendo workshops com os próprios funcionários, por forma a estes passarem o seu conhecimento, monitorias, estágios, entre outros. Estes resultados demonstraram que cada continente, país (possuidor ou não da mesma língua) e/ou cultura comporta diferenças significativas no contexto empresarial, assim tornase difícil implementar técnicas e comportamentos internacionais e esperar que os resultados sejam exatamente iguais. Este estudo espera dar alguns instrumentos de comparação para que as empresas portuguesas entendam, a este nível, a realidade brasileira.
Análise de escoamentos incompressíveis utilizando simulação de grandes escalas e adaptação de malhas
Resumo:
No presente estudo, são apresentadas soluções numéricas de problemas de Engenharia, na área de Dinâmica dos Fluidos Computacional, envolvendo fluidos viscosos, em escoamentos incompressíveis, isotérmicos e não isotérmicos, em regime laminar e turbulento, podendo envolver transporte de massa. Os principais objetivos deste trabalho são a formulação e a aplicação de uma estratégia de adaptação automática de malhas e a inclusão de modelos de viscosidade turbulenta, integrados com um algoritmo utilizado para simular escoamentos de fluidos viscosos bi e tridimensionais, no contexto de malhas não estruturadas. O estudo é dirigido no sentido de aumentar o conhecimento a respeito das estruturas de escoamentos turbulentos e de estudar os efeitos físicos no transporte de quantidades escalares propiciando, através de técnicas de adaptação automática de malhas, a obtenção de soluções numéricas precisas a um custo computacional otimizado. As equações de conservação de massa, de balanço de quantidade de movimento e de quantidade escalar filtradas são utilizadas para simular as grandes escalas de escoamentos turbulentos e, para representar as escalas submalha, são utilizados dois modelos de viscosidade turbulenta: o modelo de Smagorinsky clássico e o modelo dinâmico. Para obter soluções numéricas com precisão, é desenvolvida e implementada uma estratégia de adaptação automática de malhas, a qual é realizada simultaneamente e interativamente com a obtenção da solução. O estudo do comportamento da solução numérica é fundamentado em indicadores de erro, com o propósito de mapear as regiões onde certos fenômenos físicos do escoamento ocorrem com maior intensidade e de aplicar nestas regiões um esquema de adaptação de malhas. A adaptação é constituída por processos de refinamento/desrefinamento e por um processo de suavização laplaciana. Os procedimentos para a implementação dos modelos de viscosidade turbulenta e a estratégia de adaptação automática de malhas são incorporados ao código computacional de elementos finitos tridimensionais, o qual utiliza elementos tetraédricos lineares. Aplicações de escoamentos de fluidos viscosos, incompressíveis, isotérmicos e não isotérmicos em regime laminar e turbulento são simuladas e os resultados são apresentados e comparados com os obtidos numérica ou experimentalmente por outros autores.
Resumo:
Neste trabalho, são discutidos modelos da hadrodinâmica quântica com aproximação de campo médio aplicados a estrelas de nêutrons. O modelo de Walecka define o ponto de partida para desenvolver o modelo de acoplamento derivativo ajustável. A presente dissertação visa a um estudo detalhado sobre a influência dos parâmetros do modelo ajustável no sistema, analisando seus limites, inclusive quando os parâmetros são iguais a zero ou infinito (modelo exponencial). Esta análise tem o propósito de estabelecer um conjunto de parâmetros que defina um modelo que esteja de acordo com as propriedades fenomenológicas tais como módulo de compressão da matéria nuclear, massa efetiva na saturação da matéria nuclear e também algumas propriedades estáticas globais das estrelas de nêutrons como, por exemplo, massa e raio. Estabelecido o modelo a ser considerado, a autora dessa dissertação introduz, como inovação, a compressibilidade hadrônica como função da densidade. Tradicionalmente, determinam-se propriedades da matéria apenas para a densidade de saturação.
Resumo:
O presente trabalho consiste na aplicação da simulação computacional como método de aprofundamento do estudo de mecanismos de leilões aplicados na alocação do direito de exploração das reservas de petróleo da camada do pré-sal. A camada do pré-sal está localizada na costa brasileira e apresenta um grande potencial em termos de reserva de óleo e gás. A função lance aplicada para os participantes criados computacionalmente foi estimada com base em dados experimentais e segue uma função exponencial. A simulação possibilita reproduzir o modelo de leilão considerando todas as características e parâmetros dos experimentos sem incorrer no custo da realização de novas sessões de leilão com participantes reais. Os leilões estudados foram o leilão de valores privados de 1° preço e o leilão de valores privados de 2° preço. Através dos resultados obtidos identificou-se que o leilão de valores privados de 1° preço é menos arriscado que o leilão de valores privados de 2° preço; no leilão com simetria, o Princípio de Equivalência de Receita é válido; a eficiência observada é menor em leilões assimétricos; o leilão de 2° preço comparado com o de 1° preço apresenta um tradeoff entre a eficiência e a receita do governo; e que considerando o aprendizado dos participantes, não se observam alterações significativas nas estatísticas analisadas à medida que os participantes se tornam mais experientes.
Resumo:
Uma ferramenta importante na avaliação de políticas econômicas é a estimação do efeito médio de um programa ou tratamento sobre uma variável de interesse. Em geral, a atribuição do tratamento aos potenciais participantes não é aleatória, o que pode causar viés de seleção quando desconsiderada. Uma maneira de resolver esse problema é supor que o econometrista observa um conjunto de características determinantes, a menos de um componente estritamente aleatório, da participação. Sob esta hipótese, existem na literatura estimadores semiparamétricos do efeito médio do tratamento que são consistentes e capazes de atingir, assintoticamente, o limite de e ciência semiparamétrico. Entretanto, nas amostras freqüentemente disponíveis, o desempenho desses métodos nem sempre é satisfatório. O objetivo deste trabalho é estudar como a combinação das duas estratégias pode produzir estimadores com melhores propriedades em amostras pequenas. Para isto, consideramos duas formas de integrar essas abordagens, tendo como referencial teórico a literatura de estimação duplamente robusta desenvolvida por James Robins e co-autores. Analisamos suas propriedades e discutimos por que podem superar o uso isolado de cada uma das técnicas que os compõem. Finalmente, comparamos, num exercício de Monte Carlo, o desempenho desses estimadores com os de imputação e reponderação. Os resultados mostram que a combinação de estratégias pode reduzir o viés e a variância, mas isso depende da forma como é implementada. Concluímos que a escolha dos parâmetros de suavização é decisiva para o desempenho da estimação em amostras de tamanho moderado.
Resumo:
Neste artigo eu introduzo colateralização no ambiente de dívida soberana de Eaton-Gersovitz-Arellano. Esta colateralização pode ser vista como Investimento Estrangeiro Direto. A entrada de recursos colateralizados serve como uma estratégia de comprometimento dos países. Ao abrir a economia para este tipo de aporte de recursos, meu modelo prescreve maior tomada de dívida em equilíbrio pelos países e menos uso de default como instrumento de suavização da trajetória de consumo. Além destas características, eu mostro que limitação de colateral pode gerar mais default em equilíbrio do que um modelo sem Investimento Estrangeiro Direto ou colateral.
Resumo:
O trabalho tem por objetivo analisar possíveis mudanças no uso e contabilização de derivativos em função da convergência das normas brasileiras de contabilidade para os padrões internacionais (IFRS – IAS 39). As pesquisas basearam-se em empresas brasileiras não financeiras, observando informações de suas notas explicativas e a volatilidade de contas de seus balanços: lucro líquido e fluxo de caixa. A despeito das hipóteses formuladas, os resultados encontrados mostraram que a alteração do padrão contábil não afetou o uso de derivativos e, também, não se encontrou quaisquer evidências de que tenha havido impacto na volatilidade do fluxo de caixa e lucro líquido das companhias. Por fim, observou-se se a metodologia opcional de contabilidade de hedge (hedge accounting) suavizava a volatilidade dos lucros da firma, confirmando uma das hipóteses desta pesquisa.
Resumo:
A avaliação de risco sísmico, fundamental para as decisões sobre as estruturas de obras de engenharia e mitigação de perdas, envolve fundamentalmente a análise de ameaça sísmica. Calcular a ameaça sísmica é o mesmo que calcular a probabilidade de que certo nível de determinada medida de intensidade em certo local durante um certo tempo seja excedido. Dependendo da complexidade da atividade geológica essas estimativas podem ser bas- tante sofisticadas. Em locais com baixa sismicidade, como é o caso do Brasil, o pouco tempo (geológico) de observação e a pouca quantidade de informação são fontes de muitas incer- tezas e dificuldade de análise pelos métodos mais clássicos e conhecidos que geralmente consideram, através de opiniões de especialistas, determinadas zonas sísmicas. Serão discutidas algumas técnicas de suavização e seus fundamentos como métodos al- ternativos ao zoneamento, em seguida se exemplifica suas aplicações no caso brasileiro.
A oferta de bens perecíveis : determinação das curvas e estimativas para o mercado varejista Carioca
Resumo:
Neste artigo desenvolvemos um modelo de otimização que permite determinar curvas de oferta para produtos perecíveis. As informações disponíveis ao produtor(vendedor) sobre a demanda são sumarizadas por uma distribuição de probabilidade, a qual lhe permitirá determinar a oferta que maximiza seu gannho esperado. A função objetivo levará em conta, conjuntamente, as perdas decorrentes de um estoque excedente e parcelas do custo de oportunidade de um estoque insuficiente. Esta formalização inclui a função lucro (contábil) como um caso particular. Aplicações do modelo teórico são feitas para demandas absolutamente contínuas com distribuição admitindo inversa explícita, tais como a exponencial truncada, Pareto, Weibull e uniforme. Estimativas empíricas são obtidas para a oferta de tomates, chuchus e pimentões no mercado varejista Carioca (Julho/94 à Nov/00). Os resultados obtidos confirmam as hipóteses racionais do modelo teórico. As elasticidades-preço da oferta (no varejo) e da demanda (no atacado) são estimadas, assim que o valor da oferta ”contratual ”, nos casos em que parte dos custos dos saldos de estoque são recuperados por vendas em liquidação. A análise gráfica das curvas de oferta e de densidade da demanda sugerem a presença de significativo poder de mercado na comercialização do pimentão. Duas extensões imediatas do modelo formal são desenvolvidas. A primeira delas incorpora a existência de poder de mercado no mercado varejista. A segunda introduz uma estrutura de jogo simultâneo no mercado oligopolista onde cada produtor escolhe a curva que maximiza seu lucro esperado condicional, dado que as ofertas dos concorrentes igualam suas demandas. No equilíbrio de Nash, curvas de oferta ótimas são obtidas. Comparações são feitas com as curvas ótimas obtidas em regime de autarquia.
Resumo:
A presente dissertação tem como objetivo apresentar dois importantes modelos usados na análise de risco. Essa análise culmina em uma aplicação empírica para cada um deles. Apresenta-se primeiro o modelo Nelson-Siegel dinâmico, que estima a curva de juros usando um modelo paramétrico exponencial parcimonioso. É citada a referência criadora dessa abordagem, que é Nelson & Siegel (1987), passa-se pela apresentação da mais importante abordagem moderna que é a de Diebold & Li (2006), que é quem cria a abordagem dinâmica do modelo Nelson-Siegel, e que é inspiradora de diversas extensões. Muitas dessas extensões também são apresentadas aqui. Na parte empírica, usando dados da taxa a termo americana de Janeiro de 2004 a Março de 2015, estimam-se os modelos Nelson-Siegel dinâmico e de Svensson e comparam-se os resultados numa janela móvel de 12 meses e comparamos seus desempenhos com aqueles de um passeio aleatório. Em seguida, são apresentados os modelos ARCH e GARCH, citando as obras originais de Engle (1982) e Bolleslev (1986) respectivamente, discutem-se características destes modelos e apresentam-se algumas extensões ao modelo GARCH, incluindo aí alguns modelos GARCH multivariados. Passa-se então por uma rápida apresentação do conceito de VaR (Value at Risk), que será o objetivo da parte empírica. Nesta, usando dados de 02 de Janeiro de 2004 até 25 de Fevereiro de 2015, são feitas uma estimação da variância de um portfólio usando os modelos GARCH, GJR-GARCH e EGARCH e uma previsão do VaR do portfólio a partir da estimação feita anteriormente. Por fim, são apresentados alguns trabalhos que usam os dois modelos conjuntamente, ou seja, que consideram que as taxas ou os fatores que as podem explicam possuem variância variante no tempo.
Resumo:
Este trabalho tem como objetivo verificar se o mercado de opções da Petrobras PN (PETR4) é ineficiente na forma fraca, ou seja, se as informações públicas estão ou não refletidas nos preços dos ativos. Para isso, tenta-se obter lucro sistemático por meio da estratégia Delta-Gama-Neutra que utiliza a ação preferencial e as opções de compra da empresa. Essa ação foi escolhida, uma vez que as suas opções tinham alto grau de liquidez durante todo o período estudado (01/10/2012 a 31/03/2013). Para a realização do estudo, foram consideradas as ordens de compra e venda enviadas tanto para o ativo-objeto quanto para as opções de forma a chegar ao livro de ofertas (book) real de todos os instrumentos a cada cinco minutos. A estratégia foi utilizada quando distorções entre a Volatilidade Implícita, calculada pelo modelo Black & Scholes, e a volatilidade calculada por alisamento exponencial (EWMA – Exponentially Weighted Moving Average) foram observadas. Os resultados obtidos mostraram que o mercado de opções de Petrobras não é eficiente em sua forma fraca, já que em 371 operações realizadas durante esse período, 85% delas foram lucrativas, com resultado médio de 0,49% e o tempo médio de duração de cada operação sendo pouco menor que uma hora e treze minutos.