999 resultados para Papiro brasileiro


Relevância:

20.00% 20.00%

Publicador:

Resumo:

O recorte analítico deste trabalho percorre os anos entre 1975 e 1990, fazendo uma análise sobre diferentes instâncias de oposição doméstica ao Programa Nuclear Brasileiro. A aludida oposição é entendida dentro do contexto político que o Brasil atravessava neste período, que coincide com a distensão do regime militar, a transição para governos civis e, depois, democraticamente eleitos. Nesse sentido, para além de construir uma narrativa sobre oposições domésticas ao programa nuclear e contribuir para as recentes interpretações historiográficas sobre a energia nuclear no Brasil, este trabalho busca situar estes atores dentro do contexto histórico do Brasil, avaliando seu impacto tanto na política nuclear quanto no contexto mais amplo da longa transição que encerrou o regime militar e trouxe o poder de volta para os civis.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta pesquisa está voltada para as representações do território brasileiro que circularam em vários suportes durante o período da Primeira República. Analisando três compêndios de Geografia, os programas da disciplina localizados no Colégio Pedro II e o semanário infantil O Tico – Tico, o texto tanto problematiza a articulação entre o pensamento social e o imaginário voltado para o homem do interior do país quanto evidencia os sinais de uma valorização da natureza calcada no pensamento iluminista, a qual funcionou como arma de combate às teorias que estigmatizavam o Brasil devido aos seus caracteres naturais e raciais.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Segundo Sampaio (2002), os modelos intertemporais de equilíbrio começaram a ter a sua eficácia na determinação do retorno dos ativos questionada após a publicação do artigo de Mehra e Prescott em 1985. Tendo como objeto de análise os dados observados no mercado norte-americano, os autores não foram capazes de reproduzir a média histórica do prêmio do retorno das ações em relação ao retorno dos títulos públicos de curto prazo através de parâmetros comportamentais dentro de intervalos considerados plausíveis. Através das evidências, os autores, então, puderam verificar a necessidade de coeficientes exageradamente altos de aversão ao risco para equiparação do prêmio de risco histórico médio das ações norte-americanas, enigma que ficou conhecido como equity premium puzzle (EPP). Foi possível também a constatação de outro paradoxo: a necessidade de taxas de desconto intertemporais negativas para obtenção da média histórica da taxa de juros, o risk-free rate puzzle (RFP). Este trabalho tem como objetivo adaptar os dados do modelo proposto por Mehra e Prescott (2003) ao mercado brasileiro e notar se os puzzles apresentados anteriormente estão presentes. Testa-se o CCAPM com dados brasileiros entre 1995:1 e 2013:4 adotando preferências do tipo utilidade esperada e através da hipótese de log-normalidade conjunta dos retornos. Utiliza-se o método de calibração para avaliar se há EPP no Brasil. Em linha com alguns trabalhos prévios da literatura nacional, como Cysne (2006) e Soriano (2002) que mostraram a existência do puzzle nos períodos de 1992:1-2004:2 e 1980:1-1998:4, respectivamente, conclui-se que o modelo usado por Mehra e Prescott (2003) não é capaz de gerar o prêmio de risco observado na economia brasileira. Sampaio (2002), Bonomo e Domingues (2002) e Issler e Piqueira (2002), ao contrário, não encontram evidências da existência de um EPP brasileiro.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objeto deste trabalho é fornecer dados hidrológicos com fins de caracterização e monitoramento da região da Cadeia Norte do Brasil e da Cadeia de Fernando de Noronha, assim como levantar e sistematizar informações sobre a geoquímica dos diversos tipos de sedimentos encontrados na plataforma continental externa adjacente ao banco Aracati, contribuindo para o levantamento dos potenciais sustentáveis de exploração dos recursos vivos da Zona Econômica Exclusiva. A área em estudo compreende a sub-área II, setor 1 e parte do setor 2, e está localizada entre 1oN e 5oS de latitude e entre 30o e 40oW de longitude, abrangendo uma área de aproximadamente 400.000 km2. Foram analisadas amostras coletadas em 8 estações resultando em 20 amostras de sedimentos nos anos de 1997 (verão), 1998 (outono) e 2000 (primavera) e 34 estações que originaram 272 amostras de água na primavera de 2000. As concentrações máximas dos parâmetros analisados, com exceção do fosfato, nas amostras de água se localizam na região próxima à costa. Detectou-se na área uma termoclina bem marcada, sendo mais profunda na primavera. A camada de mistura é bastante homogênea, sendo porém, mais espessa na primavera. O pH detectado encontra-se na faixa alcalina sendo os maiores valores de pH detectados na primavera. Verifica-se, um máximo de salinidade na camada de inicio da termoclina sazonal. Não verificou-se na área condição anaeróbica na coluna d’água. A distribuição de fosfato, nitrato e silicato, apresenta-se de forma muito semelhante, sendo que na primavera essas concentrações são maiores, nas camadas superficiais. Na cobertura sedimentar da plataforma continental adjacente aos bancos da cadeia norte do Brasil, encontro-se areia quartzosa, areia carbonática, fragmentos de concha, Lithothanmium e Halimedas. Os fragmentos de concha apresentaram as maiores concentrações totais de metais, enquanto Lithothanmium apresentou o maior teor de carbonato. Há uma forte correlação entre ferro e manganês na amostras de água e em todas as frações de sedimentos analisadas, sendo que nestas a relação média entre estes elementos é da ordem de 1:25. Existe forte correlação entre cromo e carbonato nas amostras que apresentam teor de carbonato maior que 20%. As amostras de areia quartzosa, fragmentos de concha e Halimedas, apresentam-se muito semelhantes quanto à distribuição de ferro, manganês, zinco e cromo. Existe forte correlação nas amostras de sedimento, assim como nas amostras de água, entre ferro, manganês, zinco, correlacionando-se também nas amostras de sedimento com o chumbo. As 8 concentrações de metais nas amostras de água apresentaram-se relativamente baixas em se comparando com as amostras de sedimento. Nas amostras de água as concentrações de cromo e chumbo estão abaixo do limite de detecção.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho consiste no estudo do tipo de correlação e previsibilidade existentes entre a bolsa brasileira, representada pelos índices Ibovespa e SmallCaps, e indicadores macroeconômicos, como produção industrial, inflação e Produto Interno Bruto. No processo, o mercado acionário é dividido setorialmente. Tal divisão tenta reduzir os riscos não sistêmicos através da diversificação de ações e se utiliza de um critério de liquidez pré-estabelecido. A parte final do trabalho estuda a relação desses setores com indicadores mais específicos da economia brasileira como crédito, inadimplência, vendas no varejo, produção e licenciamento de veículos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Considerando-se as recentes decisões do Supremo Tribunal Federal no controle de constitucionalidade, percebe-se o movimento de sincretização entre os controles abstrato e concreto. A visão da atual jurisdição constitucional revela que as últimas criações legislativas foram inseridas no controle abstrato, sendo o caminho utilizado para resolução das principais controvérsias judiciais, com seus efeitos erga omnes e vinculantes. Esse panorama não afastou a utilização do controle concreto, que se renova ao se aproveitar dos instrumentos do controle concentrado abstrato. Não apenas o controle concreto e difuso está se beneficiando do controle abstrato, como também a recíproca é verdadeira. O controle abstrato também se beneficia ao valer-se de diversos instrumentos que não seriam possíveis por suas características abstratas. O objetivo do presente trabalho é analisar esse movimento, através de casos emblemáticos e instrumentos criados pelas Leis que tratam sobre o controle de constitucionalidade, a fim de comprovar esse novo cenário na ordem jurídica brasileira. Este trabalho foi realizado através de pesquisas bibliográficas e casos perante o Supremo Tribunal Federal. O resultado da análise comprova essa tendência na utilização de pressupostos que seriam apenas de um controle, sendo utilizado pelo outro. Isso representa um grande avanço para o tema controle de constitucionalidade que tende cada vez mais a ser sincretizado.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho de conclusão de curso busca expor e estudar as etapas, características e aspectos entre o procedimento de recall (também denominado chamamento) de automóveis brasileiro e o procedimento de recall de automóveis norte-americano, país pioneiro na procedimentalização do chamamento de automóveis, a fim de comparar as diferenças percebidas entre cada um destes modelos e em que medidas estas se justificam, analisando o porquê de tais diferenças, bem como o que poderia ser aprimorado em cada um dos modelos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Um dos produtos mais consumidos do mundo vem passando por grandes transformações, e a cerveja que conhecemos como tipo Pilsen (Light Lager) deixou de ser opção única nas prateleiras. Dado o potencial de crescimento do setor no Brasil, o objetivo deste trabalho é mapear as preferências do consumidor de cerveja artesanal, usando técnicas de preferência declarada, a partir da aplicação de questionários que convidam o entrevistado a elencar suas preferências diante das combinações dos atributos Cor, Paladar, Aroma e Álcool. A partir da estratificação da amostra em Idade e Experiência, os resultados indicam que Paladar, seguido da Cor e, por último, o Aroma são os atributos mais relevantes para o entrevistado Experiente, enquanto o Não Experiente atribui maior peso à Cor, seguida do Paladar, sendo o Aroma um atributo irrelevante em suas escolhas. O atributo Álcool revelou-se insignificante em todas as estratificações realizadas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

São muitos os desafios intrínsecos ao bom funcionamento de um setor tão complexo quanto o elétrico, em que os efeitos de determinada medida podem levar anos até a maturidade, e só então ser totalmente conhecidos os seus impactos sobre a estrutura setorial como um todo, dificilmente antecipados pelos formuladores das reformas implementadas. Tomando o setor elétrico como pano de fundo, o escopo desta dissertação é apresentar as bases para o que seria uma reforma ideal, denominada na literatura “reforma de livro texto” e, em seguida, discorrer sobre a evolução regulatória do setor elétrico brasileiro de 1930 até o início de 2014, detalhando, especialmente, as características das reformas ocorridas em 1995 e 2004. Com esse esforço de pesquisa, que adota a técnica bibliográfica e se estrutura em quatro capítulos, pretende-se analisar a situação atual do mercado livre de energia elétrica brasileiro e propor melhorias passíveis de implementação com o objetivo de desenvolver este mercado no Brasil.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O produto potencial é uma variável não-observável e, por isso, de difícil mensuração. O objetivo deste trabalho é contribuir para a discussão sobre a estimação da taxa de crescimento do produto potencial brasileiro através de uma revisão teórica e metodológica das estimativas da variável para a economia brasileira. Após uma análise sintética sobre os principais conceitos relacionados ao tema e sobre os métodos de estimação mais utilizados na literatura nacional, optou-se por utilizar seis tipos de mensurações distintas. As principais conclusões do trabalho foram: primeiramente, as estimativas de Produto Interno Bruto (PIB) potencial são bastante sensíveis à metodologia utilizada; em segundo lugar, baseado em dados trimestrais da economia brasileira, foi possível verificar que a taxa de crescimento do produto potencial brasileiro caiu nos últimos anos e que esta se encontra em uma banda entre 1,63% e 2,72%.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho tem o objetivo de testar a qualidade preditiva do Modelo Vasicek de dois fatores acoplado ao Filtro de Kalman. Aplicado a uma estratégia de investimento, incluímos um critério de Stop Loss nos períodos que o modelo não responde de forma satisfatória ao movimento das taxas de juros. Utilizando contratos futuros de DI disponíveis na BMFBovespa entre 01 de março de 2007 a 30 de maio de 2014, as simulações foram realizadas em diferentes momentos de mercado, verificando qual a melhor janela para obtenção dos parâmetros dos modelos, e por quanto tempo esses parâmetros estimam de maneira ótima o comportamento das taxas de juros. Os resultados foram comparados com os obtidos pelo Modelo Vetor-auto regressivo de ordem 1, e constatou-se que o Filtro de Kalman aplicado ao Modelo Vasicek de dois fatores não é o mais indicado para estudos relacionados a previsão das taxas de juros. As limitações desse modelo o restringe em conseguir estimar toda a curva de juros de uma só vez denegrindo seus resultados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

É vasta a literatura em finanças quantitativas sobre o apreçamento de derivativos, porém é bem reduzida em se tratando de ações. Nessa dissertação, procuramos aplicar o modelo de Bakshi-Chen na avaliação de ações listadas na Bovespa. Os inputs do modelo são o lucro por ação, LPA, dos últimos doze meses, a expectativa de crescimento de lucro para os doze meses seguintes (g), e a taxa de juros. Vamos mostrar o ganho de precisão em relação ao modelo de Gordon e avaliar o modelo na prática realizando um backtest para descobrir se o modelo consegue estimar o valor das ações melhor do que os investidores.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A tradicional representação da estrutura a termo das taxas de juros em três fatores latentes (nível, inclinação e curvatura) teve sua formulação original desenvolvida por Charles R. Nelson e Andrew F. Siegel em 1987. Desde então, diversas aplicações vêm sendo desenvolvidas por acadêmicos e profissionais de mercado tendo como base esta classe de modelos, sobretudo com a intenção de antecipar movimentos nas curvas de juros. Ao mesmo tempo, estudos recentes como os de Diebold, Piazzesi e Rudebusch (2010), Diebold, Rudebusch e Aruoba (2006), Pooter, Ravazallo e van Dijk (2010) e Li, Niu e Zeng (2012) sugerem que a incorporação de informação macroeconômica aos modelos da ETTJ pode proporcionar um maior poder preditivo. Neste trabalho, a versão dinâmica do modelo Nelson-Siegel, conforme proposta por Diebold e Li (2006), foi comparada a um modelo análogo, em que são incluídas variáveis exógenas macroeconômicas. Em paralelo, foram testados dois métodos diferentes para a estimação dos parâmetros: a tradicional abordagem em dois passos (Two-Step DNS), e a estimação com o Filtro de Kalman Estendido, que permite que os parâmetros sejam estimados recursivamente, a cada vez que uma nova informação é adicionada ao sistema. Em relação aos modelos testados, os resultados encontrados mostram-se pouco conclusivos, apontando uma melhora apenas marginal nas estimativas dentro e fora da amostra quando as variáveis exógenas são incluídas. Já a utilização do Filtro de Kalman Estendido mostrou resultados mais consistentes quando comparados ao método em dois passos para praticamente todos os horizontes de tempo estudados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O trabalho busca através de um exercício empírico, extrair as curvas de probabilidade implícita de default em debêntures brasileiras. A construção ocorre em duas etapas. O primeiro desafio é obter as estruturas a termo das debêntures brasileiras. Foi utilizada a revisão proposta por Diebold e Li (2006) do modelo de Nelson Siegel (1987) para construç o das ETTJs. A segunda etapa consiste em extrair a probabilidade de default utilizado a forma reduzida do modelo de Duffie e Singleton (1999). A fração de perda em caso de default foi considerada constante conforme estudo de Xu e Nencioni (2000). A taxa de decaimento também foi mantida constante conforme proposto por Diebold e Li (2006) e Araújo (2012). O exercício foi replicado para três datas distintas durante o ciclo de redução de juros no Brasil. Dentre os resultados desse estudo identificou-se que os agentes do mercado reduziram a probabilidade de default dos emissores durante esse período. A redução nos vértices mais curtos foi mais significativa do que em vértices mais longos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo deste trabalho é realizar procedimento de back-test da Magic Formula na Bovespa, reunindo evidências sobre violações da Hipótese do Mercado Eficiente no mercado brasileiro. Desenvolvida por Joel Greenblatt, a Magic Formula é uma metodologia de formação de carteiras que consiste em escolher ações com altos ROICs e Earnings Yields, seguindo a filosofia de Value Investing. Diversas carteiras foram montadas no período de dezembro de 2002 a maio de 2014 utilizando diferentes combinações de número de ativos por carteira e períodos de permanência. Todas as carteiras, independentemente do número de ativos ou período de permanência, apresentaram retornos superiores ao Ibovespa. As diferenças entre os CAGRs das carteiras e o do Ibovespa foram significativas, sendo que a carteira com pior desempenho apresentou CAGR de 27,7% contra 14,1% do Ibovespa. As carteiras também obtiveram resultados positivos após serem ajustadas pelo risco. A pior razão retorno-volatilidade foi de 1,2, comparado a 0,6 do Ibovespa. As carteiras com pior pontuação também apresentaram bons resultados na maioria dos cenários, contrariando as expectativas iniciais e os resultados observados em outros trabalhos. Adicionalmente foram realizadas simulações para diversos períodos de 5 anos com objetivo de analisar a robustez dos resultados. Todas as carteiras apresentaram CAGR maior que o do Ibovespa em todos os períodos simulados, independentemente do número de ativos incluídos ou dos períodos de permanência. Estes resultados indicam ser possível alcançar retornos acima do mercado no Brasil utilizando apenas dados públicos históricos. Esta é uma violação da forma fraca da Hipótese do Mercado Eficiente.