999 resultados para Modelos contabilísticos
Resumo:
Nesta dissertação estudamos diferentes modelos de hedging para uma opção plain vanilla comprada do tipo europeu. Este estudo nos leva a uma análise onde a volatilidade é uma variável de extrema importância em todos os modelos abordados. De natureza incerta e muitas vezes incompreensível, a volatilidade é uma peça fundamental pelo sucesso ou fracasso de muitos agentes financeiros. Os modelos em que trabalhamos o hedging da opção comprada são: o modelo Black& Scholes (1976) e o moldelo de Hoggard-Whaley-Wilmott (1994). A opção analisada é referente ao ativo base Itaú PN. Trabalhamos com uma série histórica do retorno dos preços de fechamento deste ativo de 02/01/1998 até 30/05/2011 de onde extraímos os parâmetros de volatilidade utilizados para as simulações do ativo base, gerando diferentes regimes de mercado. Por fim, realizamos o hedging com diferentes freqüências de ajustes e diferentes volatilidades de hedging com os modelos mencionados acima.
Resumo:
Este trabalho estima a transmissão da variação cambial aos índices de preços brasileiros, utilizando a metodologia de vetores autorregressivos estruturais (SVAR) com vetores de correção de erros (VEC). O período estudado tem início na introdução do regime de metas para a inflação (junho de 1999) e se encerra em setembro de 2011. Os resultados reforçam a avaliação de que houve amadurecimento da política monetária nos últimos anos, concomitantemente a uma melhora do ambiente macroeconômico. Na comparação dos nossos resultados com estudos anteriores, encontramos significativa redução do pass-through da taxa de câmbio para os índices de inflação.
Resumo:
Recentemente o mundo assistiu diversas manifestações em países árabes sendo impulsionadas pelo uso de tecnologias inovadoras como redes sociais, com poder inclusive de derrubada de governos e a divulgação de dados secretos que constrangeram Estados através da comunidade internacional Wikileaks. A grande modificação da economia informacional em rede na esfera pública é disponibilizar ferramentas que permitem ao cidadão não ser passivo na busca pela informação, mas possa participar da construção da informação e com isso ser ativo no processo de fiscalizar e garantir um rumo democrático para seu país, estado ou cidade. O objetivo geral desta dissertação de mestrado é identificar as formas pelas quais a sociedade civil no Brasil através do uso da web participa da esfera pública interconectada. Proposta por Benkler (2006), o conceito de esfera pública interconectada modifica a definição original habermasiana de esfera pública, e busca novos entendimentos sobre ela a partir das possibilidades apresentadas pelas novas tecnologias interativas associadas à Internet, como blogs, páginas web e redes sociais. As etapas da construção desta pesquisa foram: 1) a construção de uma tipologia das formas pelas quais a sociedade civil pode utilizar a Web para se relacionar na esfera pública interconectada; 2) um estudo de caso de uma iniciativa brasileira de uso da Web que influenciou na construção de políticas públicas para averiguar no contexto real a relação dessas iniciativas com os governos e seu processo de tomada de decisão; 3) uma análise dos impactos das iniciativas na Internet na tomada de decisão dos governos a partir da adaptação do método de análise da participação política proposto por Fung (2006) denominado Cubo da Democracia. Os resultados da pesquisa demonstraram que já existem no Brasil iniciativas da sociedade civil que fazem parte da esfera pública interconectada. Além de classificar as iniciativas quanto sua origem (oriundas de organizações ou cidadãos), estas também foram classificada conforme o grau de interatividade, desde aquelas que disponibilizavam informações sem nenhuma possibilidade de criação de conteúdo pelos cidadãos até aquelas que todo o conteúdo era gerado por qualquer um que desejasse participar.
Resumo:
Este artigo propõe um novo teste para distinção entre modelos macroeconômicos de precificação. Onde testes antigos concluíram haver uma relação negativa entre inflação corrente e duração de um preço, indicando estado-dependência, nosso teste indica que a relação verdadeira é entre inflação esperada e duração do preço, indicando tempo-dependência-endógena. Argumentamos que os resultados previamente encontrados possivelmente sofreram de viés de variável omitida.
Resumo:
Dadas a importância dos professores para o processo educacional e a disponibilidade de dados para a estimação de medidas de eficácia dos professores, entendida como a capacidade em produzir resultados em termos da aprendizagem dos alunos, este trabalho buscou aplicar um modelo de valor agregado para estimar e analisar a eficácia de uma amostra dos professores que lecionaram para a 4ª série da rede municipal de ensino de São Paulo no ano de 2010. Obtivemos evidências de que a variação na eficácia dos professores explicaria cerca de 9% da variação nas notas dos alunos da amostra analisada, menos do que a variação nas variáveis de background dos alunos, em torno de 15%, mas mais do que a variação nas variáveis de escola, em torno de 5%. Na estimação dos efeitos professor individuais, os resultados indicam que um aumento de um desvio-padrão nos efeitos professor levaria a um aumento de, no mínimo, 0,062 desvio-padrão na proficiência dos alunos em Língua Portuguesa e 0,049 desvio-padrão em Matemática, que correspondem a, 2,79 pontos em Língua Portuguesa e 2,20 pontos em Matemática. Na análise dos fatores associados aos efeitos professor estimados, foram encontradas associações positivas entre as seguintes variáveis e os efeitos professor: o tempo dedicado ao trabalho pedagógico fora da escola, a freqüência com que o professor passa lição de casa e o uso dos Cadernos de Apoio e Aprendizagem. As análises acerca da confiabilidade e da estabilidade das medidas de efeito professor estimadas indicam que os dados utilizados têm uma capacidade limitada para subsidiar recomendações em relação às políticas de pessoal, porém permitem identificar que cerca de 13% dos professores tiveram efeitos estimados distintos da média. Dada essa distinção, esses professores são o público ideal para pesquisas futuras sobre suas práticas docentes, em especial sobre os fatores para os quais foi observada uma associação positiva com os efeitos professor estimados.
Resumo:
Esta Tese tem como objetivo analisar a relação entre as práticas de governança para Federações esportivas e a sua efetividade no Brasil, utilizando a Teoria dos Stakeholders e teorias sobre organizações esportivas. Ela sugere práticas de governança para as entidades esportivas que podem aumentar a sua efetividade - em um contexto em que o esporte é relevante para o Estado e a sociedade. São identificados os principais Stakeholders no esporte e em seguida apresentados parâmetros para uma boa governança, divididos nos campos: regulação, resultados, profissionalismo, transparência e participação. A confecção da presente Tese abrangeu uma pesquisa qualitativa, onde foram entrevistados 26 atores do mundo do esporte e analisados Estatutos e outros documentos de Confederações esportivas. Isso foi facilitado pelo envolvimento do autor com o assunto, pois exerce a direção de Federação Esportiva desde 2005 (Vice Presidente da Federação de Vela do Estado do Rio de Janeiro, 2005/2010 e Presidente da mesma entidade 2011/2012). A solução aqui proposta ajuda a conferir mais transparência e controle sobre as organizações esportivas, criando uma racionalidade instrumental que melhor atenda aos interesses objetivos do conjunto de seus Stakeholders.
Resumo:
A inovação consiste em desafio premente para inúmeras organizações, de diferentes portes e missões. Dada sua relevância para as organizações públicas e privadas, de portes variados, assim como para as economias locais, regionais, nacionais e internacionais, a gestão da inovação constitui o cerne deste estudo de casos múltiplos. A gestão da inovação e seu alinhamento com a estratégia organizacional pode representar um diferencial competitivo significativo. Através de uma visão sistêmica sobre a gestão da inovação, é possível que as organizações gerem benefícios e externalidades que poderão atender a diversos atores envolvidos e públicos interessados no processo, tais como colaboradores, parceiros de negócios, fornecedores, usuários, clientes e agências do governo. A partir desta perspectiva, a estratégia de inovação é considerada uma abordagem central no que diz respeito à estratégia empresarial. Nossa intenção na realização desta pesquisa é compreender a complexidade e o valor de processos de inovação em organizações e seus efeitos enquanto consequências de estratégias deliberadas e emergentes. Esta pesquisa propõe um modelo referencial a ser utilizado pelos gestores para o mapeamento de processos de variados graus de complexidade, com vistas a prestar suporte na gestão da inovação de produtos, processos e administrativa, de forma estruturada, com especial ênfase ao modelo do funil de inovação e sua interface com tecnologias de informação, assim como em processos organizacionais e interorganizacionais, que podem contemplar parcerias externas em inovação aberta. Foram desenvolvidos três estudos de caso, os quais formam a base deste modelo referencial. Todos os casos abrangem empresas do setor petroquímico brasileiro, sendo um caso de empresa de grande porte, a Braskem S.A., e dois casos de empresas de pequeno porte, respectivamente a Hausthene Poliuretanos Ltda. e a Prorevest Revestimentos de Poliuretanos e Peças Especiais Ltda. O modelo referencial proposto busca identificar as condições necessárias – os determinantes da inovação – que possibilitam a gestão da inovação em produtos, processos e em gestão, e seus possíveis resultados.
Resumo:
The present paper aspires to join two different debates: (i) what is the State’s best organizational model to promote distinctive public services; and (ii) what role Law should perform in the promotion of a nation’s economic and social development. More specifically, this study examines whether the institutions created by the Brazilian normative system are able to balance the antagonist interests of the State and minority shareholders in a Government-Controlled Corporation. In this pursuit, this paper analyzes the changes that occurred in SABESP S.A. during the period between the years of 2000 – 2010, of major transformations in the Brazilian Water and Sewage sector. At that time, the company was introduced to the Novo Mercado of BM&FBovespa, was forced to execute agreements with conceding authorities and started to be monitored by ARSESP, an independent regulatory agency. Initial findings suggest that these institutions were able to create incentives for the company to strive for a more efficient performance, often succeeding in aligning the contrasting interests of the State and minority shareholders. Final conclusions are that: (i) Government-Controlled Corporations can be powerful public policy promotion instruments in sectors that are complex and capital intensive; and (ii) Law can and should perform a much more active role in sponsoring economic and social development than merely acting to diminish transaction costs to allow for the adequate functioning of markets.
Resumo:
Estuda a problema do dimensionamento de lote em sistemas de produção intermitente, considerando os diferentes estágios do fluxo de materiais em uma empresa incluindo compra, produção e distribuição. Apresenta diversos modelos de mínimo custo, baseados em pressupostos faz como: operação em condições ideais (modelo clássico); existência ou não de descontos de compra; abastecimento instantâneo ou contínuo; existência ou não de restrições na disponibilidade de recursos; demanda determinística ou probabilística; existência ou não de permissão de faltas; itens isolados, itens múltiplos ou agregados de itens; estágio início ou estágios múltiplos; etc.
Resumo:
A previsão dos preços do petróleo é fundamental para o planejamento energético e oferece subsídio a tomada de decisões de longo prazo, que envolvem custos irrecuperáveis. No entanto, os preços do petróleo são muito instáveis sujeitos a choques como resultado de questões geopolíticas, poder de mercado da OPEP (Organização dos Países Exportadores de Petróleo) e pressões de demanda resultando numa série sujeita a quebras estruturais, prejudicando a estimação e previsão de modelos de série temporal. Dada a limitação dos modelos de volatilidade da família GARCH, que são instáveis e apresentam elevada persistência em séries com mudanças estruturais, este trabalho compara a previsão da volatilidade, em termos de intervalos de confiança e persistência, dos modelos de volatilidade com mudança de regime markoviana em relação aos modelos de volatilidade determinísticos. Os modelos de volatilidade com mudança de regime considerados são o modelo SWARCH (Markov Switch ARCH) e introduz-se o modelo MSIH (Markov Switch Intercept Heteroskedasticity) para o estudo da volatilidade. Como resultado as previsões de volatilidade dos modelos com mudança de regime permitem uma estimação da volatilidade que reduz substancialmente a persistência em relação aos modelos GARCH.
Resumo:
A Eletroconvulsoterapia é atualmente o método mais efetivo no manejo dos transtornos depressivos, e sua superioridade frente ao tratamento farmacológico apresenta-se bem documentada. Apesar disso, críticos ainda vêem o método como potencialmente danoso e capaz de provocar lesões cerebrais, fatos que carecem de comprovação científica. Hipóteses quanto aos mecanismos bioquímicos desencadeados pela eletroconvulsoterapia, bem como pelos antidepressivos de um modo geral, voltam-se tradicionalmente para o sistema monoaminérgico como principal envolvido na orquestração subjacente à recuperação dos sintomas de humor. Há algum tempo esforços têm sido direcionados para identificação de outros sistemas que possam estar desempenhando um importante papel. Nesta tese utilizamos um tradicional modelo de choque eletroconvulsivo em ratos para investigar seus efeitos sobre marcadores de lesão neuronal, atividade e consumo energético glial, bem como atividade de ectonucleotidases. Ratos wistar machos com 60 a 90 dias de idade foram alocados a dois tratamentos. No primeiro, denominado agudo, os indivíduos receberam um único choque eletroconvulsivo, sendo posteriormente sacrificados em horários predeterminados. No segundo modelo, crônico, os ratos receberam 8 choques eletroconvulsivos, mimetizando um curso de tratamento de eletroconvulsoterapia. O sacrifício dos ratos no modelo crônico ocorreu após o oitavo choque, também em momentos predeterminados. No primeiro trabalho foi extraído o líquor dos animais 0, 3, 6, 12, 24, 48 e 72 horas após terminadas as sessões, sendo medidos os níveis de proteína S100B, enolase específica do neurônio e lactato. Os níveis de S100B apresentavam-se significativamente elevados seis horas após o último choque no modelo crônico (p<0,0001). Enolase específica do neurônio não teve alterações, e os níveis de lactato aumentaram significativamente na primeira medição após o choque, tanto no modelo crônico quanto no agudo (p<0,001, para ambos). No segundo trabalho, o mesmo modelo foi usado, agora com medições nos níveis séricos da hidrólise de nucleotídeos da adenina. Nosso modelo agudo demonstrou uma diminuição significativa da hidrólise de ATP, ADP e AMP, no primeiro momento medido após o choque, 0 horas (p<0,05 para ATP, e p<0,01 para ADP e AMP), enquanto no modelo crônico avaliou-se que a atividade sérica da enzima aumentava significativamente 48 horas após o último choque (p<0,05 para os três nucleotídeos), permanecendo significativamente aumentada 7 dias após (p<0,001 para os três nucleotídeos). Assim, os resultados do primeiro trabalho apóiam a proposta de que o choque eletroconvulsivo não produz dano neural, e que as alterações observadas nos níveis de S100B e lactato, refletem uma reação astrocitária de natureza protetora. No segundo observamos que o modelo crônico de choque eletroconvulsivo é capaz de induzir ativações enzimáticas sustentadas, o que pode apoiar a idéia de que a adenosina esteja associada com os mecanismos bioquímicos envolvidos nas mudanças cerebrais ocasionadas pela eletroconvulsoterapia.
Resumo:
A evapotranspiração (ET) abrange todos os processos que envolvem a mudança de fase líquida ou sólida para vapor de água. Globalmente, suas principais componentes são a evaporação nos oceanos, corpos d’água e solo e a transpiração pela cobertura vegetal. O conhecimento da ET da superfície terrestre para a atmosfera é muito importante para a resolução de inúmeras questões relacionadas aos recursos hídricos. Dentre essas questões, destacam-se planejamento de bacias hidrográficas e, em especial, o manejo da irrigação. Esse tipo de informação é igualmente relevante para estudos climáticos uma vez que, por meio da ET, ocorre redistribuição de umidade e calor da superfície para a atmosfera.As metodologias convencionais de estimativa da ET, em geral, apresentam muitas incertezas. Essas incertezas aumentam muito quando o interesse é o comportamento espacial da mesma. A única tecnologia que permite acessar esse tipo de informação, de forma eficiente e econômica, é o sensoriamento remoto. Por meio de dados derivados de imagens de satélite é possível calcular o balanço de energia de uma região e acessar as reais taxas de ET. A literatura internacional apresenta alguns modelos para estimar a ET por meio de sensoriamento remoto. A verificação dessas estimativas é feita por medidas dos termos do balanço de energia realizadas por sensores colocados em torres meteorológicas. Esse tipo de informação, no entanto, é de alto custo e de difícil aquisição. Após revisão de literatura, foram escolhidos os algoritmos SEBAL (Surface Energy Balance Algorithm for Land) e SSEBI (Simplified Surface Energy Balance Index). O primeiro foi adotado por ser um dos mais utilizados e o segundo pela sua simplicidade.Dessa maneira, a partir de 44 imagens de satélite, praticamente livres de cobertura de nuvens, do sensor AVHRR (Advanced Very High Resolution Radiometer), a bordo do satélite NOAA-14, e dados climatológicos de algumas estações, foram geradas séries de coberturas de ET real para o Estado do Rio Grande do Sul em nível diário, durante o ano de 1998. Para efeito de simplificação, na análise dos resultados foram escolhidas algumas áreas representativas das principais classes de cobertura do Estado: área cultivada, campo, área urbana, banhado, lagoa e floresta. Os resultados demonstraram que, para o SEBAL, asperdas médias anuais (mm ano-1) ocorrem, em ordem decrescente nas classes banhado (827), lagoa (732), floresta (686), área cultivada (458), campo (453) e área urbana (276). Para o S-SEBI, esta ordem é a seguinte: floresta (918), banhado (870), lagoa (669), área cultivada (425), campo (403) e área urbana (363). Ficou evidente que as classes com as menores influências antrópicas apresentaram as maiores taxas de ET. Outra observação feita é que, em média, as estimativas do S-SEBI superestimam a ET em relação ao SEBAL, na porção leste do Estado, e o oposto na porção oeste. Foi verificado, ainda, um eixo de decréscimo da ET na primeira metade do ano da porção noroeste para sudeste, e posterior crescimento na segunda metade do ano, em sentido oposto.As verificações foram feitas de forma indireta por meio de um balanço hídrico anual simplificado em algumas bacias hidrográficas do Estado, por meio de valores de ET real para a cultura do milho em algumas localidades do Estado e medidas de evaporação de tanque do tipo Classe A. Em geral, os resultados foram considerados coerentes, o que confere à metodologia utilizada um grande potencial de uso, uma vez que possibilita acessar a distribuição espacial da ET.
Resumo:
O presente artigo visa estudar as limitações impostas aos governos quanto a sua capacidade de inovar na gestão pública, tendo em vista as disposições da Constituição Federal de 1998. Como material de pesquisa, foram usadas as decisões proferidas pelo Supremo Tribunal Federal (STF) em duas importantes Ações Diretas de Inconstitucionalidade (ADINs)
Resumo:
Este trabalho tem por objetivo reunir e analisar os modelos quantitativos mais comumente usados como suporte às atividades dos especialistas, responsáveis, nas empresas, pela consecução do melhor arranjo. Enfase especial é dispensada à análise dos modelos computacionais que, de fato, constitui a parte central da monografia. Não há qualquer pretensão de originalidade para os conceitos e para o material aqui apresentado.
Resumo:
Apresento aqui uma abordagem que unifica a literatura sobre os vários modelos de apreçamento de derivativos que consiste em obter por argumentos intuitivos de não arbitragem uma Equação Diferencial Parcial(EDP) e através do método de Feynman-Kac uma solução que é representada por uma esperança condicional de um processo markoviano do preço do derivativo descontado pela taxa livre de risco. Por este resultado, temos que a esperança deve ser tomada com relação a processos que crescem à taxa livre de risco e por este motivo dizemos que a esperança é tomada em um mundo neutro ao risco(ou medida neutra ao risco). Apresento ainda como realizar uma mudança de medida pertinente que conecta o mundo real ao mundo neutro ao risco e que o elemento chave para essa mudança de medida é o preço de mercado dos fatores de risco. No caso de mercado completo o preço de mercado do fator de risco é único e no caso de mercados incompletos existe uma variedade de preços aceitáveis para os fatores de risco pelo argumento de não arbitragem. Neste último caso, os preços de mercado são geralmente escolhidos de forma a calibrar o modelo com os dados de mercado.