991 resultados para Taxa de captura
Resumo:
A presente dissertação discute e analisa como se constitui o processo de escolarização das Tecnologias da Informação e Comunicação (TICs) em turmas de séries iniciais no âmbito da escola pública. Na articulação dos estudos de Michel Foucault e dos Estudos Culturais Pós-estruturalistas, procurei investigar práticas escolares e examinar as relações de poder-saber aí implicadas. Além disso, atentei para aqueles movimentos/ações com a finalidade de fuga, ruptura, que entraram em luta com os mecanismos/estratégias ligados à constituição do processo em questão. Com esse objetivo, para compor o corpus de pesquisa, incursionei no espaço escolar e desenvolvi observações no laboratório de Informática em um período de aproximadamente quatro meses. De acordo com essas observações, produzi um diário de campo. Também realizei entrevistas com direção e vice-direção, professora responsável pelo laboratório de Informática, professoras, alunos e alunas de séries iniciais. Participei de uma reunião de professores e reuni alguns materiais sobre as TICs que me foram disponibilizados pela escola. Explorei tais materiais atentando para as práticas de significação que os tornaram possíveis, valendo-me dos pressupostos da análise de discurso foucaultiana, que aponta para a total inseparabilidade de discurso e prática. Utilizei como ferramentas analíticas os conceitos de prática, relações de poder-saber, linguagem, disciplina. A trama das ferramentas com os materiais possibilitou-me argumentar que a constituição do processo de escolarização das TICs está relacionada a um elemento por mim identificado como tendo tornado esse processo possível, qual seja, a necessária associação das TICs à educação escolarizada e pública. Do mesmo modo, analisei a disciplinarização como um dos processos implicados na constituição da escolarização das TICs. Por meio desse processo, foi possível examinar algumas práticas/estratégias disciplinares, tanto no eixo do corpo quanto no eixo dos saberes, comprometidas em adequar/ajustar as TICs a uma determinada estrutura e organização escolarizadas.
Resumo:
Vídeos são dos principais meios de difusão de conhecimento, informação e entretenimento existentes. Todavia, apesar da boa qualidade e da boa aceitação do público, os vídeos atuais ainda restringem o espectador a um único ponto de vista. Atualmente, alguns estudos estão sendo desenvolvidos visando oferecer ao espectador maior liberdade para decidir de onde ele gostaria de assistir a cena. O tipo de vídeo a ser produzido por essas iniciativas tem sido chamado genericamente de vídeo 3D. Esse trabalho propõe uma arquitetura para captura e exibição de vídeos 3D em tempo real utilizando as informações de cor e profundidade da cena, capturadas para cada pixel de cada quadro do vídeo. A informação de profundidade pode ser obtida utilizando-se câmeras 3D, algoritmos de extração de disparidade a partir de estéreo, ou com auxílio de luz estruturada. A partir da informação de profundidade é possível calcular novos pontos de vista da cena utilizando um algoritmo de warping 3D. Devido a não disponibilidade de câmeras 3D durante a realização deste trabalho, a arquitetura proposta foi validada utilizando um ambiente sintético construído usando técnicas de computação gráfica. Este protótipo também foi utilizado para analisar diversos algoritmos de visão computacional que utilizam imagens estereoscópias para a extração da profundidade de cenas em tempo real. O uso de um ambiente controlado permitiu uma análise bastante criteriosa da qualidade dos mapas de profundidade produzidos por estes algoritmos, nos levando a concluir que eles ainda não são apropriados para uso de aplicações que necessitem da captura de vídeo 3D em tempo real.
Resumo:
Neste trabalho são abordados empiricamente dois temas bastante atuais no âmbito da política monetária: a estimativa de uma Regra de Taylor aumentada com a inclusão de um vetor de preços de ativos financeiros e a hipótese de não-linearidade da Regra de Taylor. Os principais resultados encontrados sugerem que o Banco Central do Brasil não segue uma Regra de Taylor aumentada na condução da política monetária e que há evidências de não-linearidade de sua função de reação. Além disso, encontramos evidência de recuo da taxa de juros real de equilíbrio (ou neutra) da economia brasileira.
Resumo:
Neste estudo foi estimada a taxa de juros neutra da economia brasileira no período compreendido entre o quarto trimestre de 2001 e o segundo trimestre de 2012 através de três diferentes modelos econométricos. Foram comparados os resultados obtidos, analisou-se se havia evidências de uma tendência de redução recente na taxa de juros neutra e a partir dos resultados obtidos avaliou-se como tem sido a condução da política monetária por parte do Banco Central do Brasil, verificando se houve períodos onde as taxas de juros reais praticadas ficaram sistematicamente abaixo/acima das taxas de juros neutras. A seqüência do texto é a seguinte. Inicialmente são apresentadas uma síntese contendo as principais definições e conceitos econômicos envolvidos, além da motivação para se abordar o tema e uma revisão bibliográfica mostrando os principais resultados obtidos para outras economias e para o Brasil. Em seguida é feito um sumário dos principais métodos de estimação utilizados e os dados utilizados, além de serem descritos e discutidos os resultados das estimações. No final um capítulo de conclusão com um resumo dos desenvolvimentos é apresentado.
Resumo:
Este trabalho tem a finalidade de analisar as evidências de relações de longo prazo entre a taxa de câmbio real (“RER”), a posição internacional de investimentos (“NFA”) e o efeito Balassa-Samuelson (“PREL”) em um grupo de 28 países, grupo este que inclui países em diferentes estágios de desenvolvimento. A metodologia utilizada foi a de testes de cointegração. Os testes aplicados foram desenvolvidos por Bierens (1997), teste não paramétrico, e por Saikkonen e Lütkepohl (2000a, b, c), teste que consiste em primeiro estimar um termo determinístico. Evidências de cointegração são constatadas, em ambos os testes, na maioria dos países estudados. Entretanto, houve diferenças relevantes entre os resultados encontrados através dos dois testes aplicados. Estas diferenças entre os resultados, bem como alguns casos especiais de países que não demonstraram evidências de cointegração, requerem análises mais aprofundadas sobre o comportamento de longo prazo das três variáveis estudadas.
Resumo:
Este trabalho buscou analisar o efeito da confiança tanto na criação de valor nas relações comprador-fornecedor quanto na sua captura. Partiu-se da perspectiva teórica da Visão Relacional, em que as relações colaborativas são capazes de criar um valor único, que não seria criado por nenhum dos membros da parceria de forma independente, nem mesmo em uma simples troca de mercado. A confiança tem papel central em relações colaborativas, pois atua como um efetivo mecanismo de governança relacional, que minimiza os custos de transação, como aqueles relacionados a monitoramento e controle, e promove o engajamento das firmas em atividades de criação de valor. Contudo, enquanto que a criação de valor é um cenário ganha-ganha, a captura de valor indica que, se uma fatia maior do bolo fica com uma firma, resta uma fatia menor para o outro parceiro. Se a presença da confiança é importante para o bom andamento de relacionamentos colaborativos, seu excesso pode fazer com que a firma se abstenha do uso do poder, o que significa deixar para o parceiro uma parte dos ganhos que seriam apropriáveis por ela. O estudo foi desenvolvido em 117 díades da indústria química brasileira, a partir dos relacionamentos das firmas desta indústria com compradores de outras indústrias. A modelagem de equações estruturais e a regressão múltipla compuseram as técnicas multivariadas de análise dos dados coletados. Os resultados do trabalho demonstraram a existência tanto do ‘lado brilhante’ quanto do ‘lado obscuro’ da confiança. Embora tenha ficado evidente a sua importância na criação das rendas relacionais para a díade, foi encontrado um limite para os benefícios crescentes do nível de confiança, pois seu excesso afetava negativamente a parcela de valor capturada pelo fornecedor. Os resultados do trabalho indicam ainda que o potencial de captura das rendas relacionais pelo fornecedor é prejudicado pelo aumento da sua dependência em relação ao comprador. Estes achados oferecem importantes contribuições teóricas e sugerem oportunidades para estudos futuros sobre o tema.
Resumo:
Com base em uma metodologia desenvolvida por Frankel e Lown (1994), que surge para aperfeiçoar o arcabouço utilizado por Mishkin (1990a,1990b) ao permitir, em contraposição a este, a variação ao longo do tempo da taxa de juros real de longo prazo de uma economia, o presente trabalho se propõe a verificar o existência, para dados brasileiros, de evidências empíricas que suportem a aceitação da hipótese de que a estrutura a termo da curva de juros possui informações que auxiliam na previsão da trajetória futura da inflação, característica já encontrada em dados de algumas economias desenvolvidas, como Estados Unidos e Alemanha. A modificação marginal implementada por Frankel e Lown é importante porque permite que os resultados finais sejam interpretados dentro de um contexto teórico mais próximo da realidade, isto é, onde as decisões de política monetária são capazes de influenciar a variável acima mencionada. Analisa-se, para o período de janeiro de 2003 a janeiro de 2013, o poder explicativo que diversas medidas de inclinação da curva de juros local têm sobre a variação futura do índice de preços ao consumidor ampliado (IPCA), o mais importante da economia brasileira. Em linhas gerais, encontramos que, em consonância com a experiência internacional, independente de tratarmos os dados na forma com ou sem ajustes sazonais, ou de tratar as variáveis relativas à taxa de juros como logaritmo de um fator mais suas taxas ou de apresentá-las em seu próprio nível, existem evidências empíricas que indicam a existência de poder preditivo desta variável explicativa sobre a referida variável dependente, ou ao menos tornam difícil rejeitar, em um primeiro momento, esta hipótese inicial.
Resumo:
A forte apreciação cambial que o Brasil sofreu na última década se traduziu em um novo debate acerca da hipótese de Doença Holandesa no país. Como a queda da taxa de câmbio real ocorreu em um período de alta de preços de commodities e nos últimos anos, especialmente após a crise de 2008, vimos uma maior concentração da pauta exportadora em produtos primários, muitos economistas argumentam que a apreciação foi consequência do boom de commodities e que, em razão disso, o Brasil poderia estar sofrendo da Doença Holandesa. Este trabalho mostra que o boom de commodities não foi a principal causa da apreciação da taxa de câmbio real e não representou uma maior dependência destas mercadorias. A mudança do perfil de risco da economia brasileira foi um dos fatores mais importante para a queda da taxa de câmbio. Concluímos, portanto, que a recente perda de competitividade dos demais setores exportadores não pode ser atribuída exclusivamente à valorização das commodities.
Resumo:
Com o objetivo de precificar derivativos de taxas de juros no mercado brasileiro, este trabalho foca na implementação do modelo de Heath, Jarrow e Morton (1992) em sua forma discreta e multifatorial através de uma abordagem numérica, e, que possibilita uma grande flexibilidade na estimativa da taxa forward sob uma estrutura de volatilidade baseada em fatores ortogonais, facilitando assim a simulação de sua evolução por Monte Carlo, como conseqüência da independência destes fatores. A estrutura de volatilidade foi construída de maneira a ser totalmente não paramétrica baseada em vértices sintéticos que foram obtidos por interpolação dos dados históricos de cotações do DI Futuro negociado na BM&FBOVESPA, sendo o período analisado entre 02/01/2003 a 28/12/2012. Para possibilitar esta abordagem foi introduzida uma modificação no modelo HJM desenvolvida por Brace e Musiela (1994).
Resumo:
A avaliação acurada da função renal através da medida da taxa de filtração glomerular (TFG) é fundamental na rotina clínica, pois é parte decisiva do diagnóstico e terapêutica. A recomendação atual da National Kidney Foundation (NKF) é o uso de equações que incluam a creatinina, idade, gênero e raça. No entanto a acurácia dessas equações tem sido questionada. Desta forma, investigadores ainda buscam um marcador ideal para analisar a função renal. Neste contexto, se encaixam os estudos com a cistatina C, uma substância endógena, que tem sido relatada como um indicador confiável e de fácil execução para esse propósito. A presente dissertação considerou a dosagem de cistatina C e a utilização da equação do MDRD para a avaliação da função renal em indivíduos saudáveis.
Resumo:
Modelos de predição baseados em estimações não-paramétricas continuam em desenvolvimento e têm permeado a comunidade quantitativa. Sua principal característica é que não consideram a priori distribuições de probabilidade conhecidas, mas permitem que os dados passados sirvam de base para a construção das próprias distribuições. Implementamos para o mercado brasileiro os estimadores agrupados não-paramétricos de Sam e Jiang (2009) para as funções de drift e de difusão do processo estocástico da taxa de juros instantânea, por meio do uso de séries de taxas de juros de diferentes maturidades fornecidas pelos contratos futuros de depósitos interfinanceiros de um dia (DI1). Os estimadores foram construídos sob a perspectiva da estimação por núcleos (kernels), que requer para a sua otimização um formato específico da função-núcleo. Neste trabalho, foi usado o núcleo de Epanechnikov, e um parâmetro de suavizamento (largura de banda), o qual é fundamental para encontrar a função de densidade de probabilidade ótima que forneça a estimação mais eficiente em termos do MISE (Mean Integrated Squared Error - Erro Quadrado Integrado Médio) no momento de testar o modelo com o tradicional método de validação cruzada de k-dobras. Ressalvas são feitas quando as séries não possuem os tamanhos adequados, mas a quebra estrutural do processo de difusão da taxa de juros brasileira, a partir do ano 2006, obriga à redução do tamanho das séries ao custo de reduzir o poder preditivo do modelo. A quebra estrutural representa um processo de amadurecimento do mercado brasileiro que provoca em grande medida o desempenho insatisfatório do estimador proposto.
Resumo:
Estudos sobre os determinantes da estrutura a termo de taxa de juros brasileira são recentes. Um melhor entendimento sobre os determinantes da mesma é importante, entre outras razões, para política econômica. Existem duas visões extremas sobre estrutura a termo. A primeira argumenta que as taxas de longo é igual a uma média ponderada das taxas de curto mais um prêmio por maturidade devido a agentes que arbitrassem tal diferença. A segunda visão argumenta que os agentes não teriam incentivos para arbitrar a curva de juros pois teria preferência por maturidades específicas e logo a curva de longo e curto estariam desconectadas. O presente trabalho testa as proposições Greenwood e Vayanos (2008) obtidas a partir de um modelo em que as duas visões acima são reconciliadas. No modelo de Greenwood e Vayanos (2008) a alteração da maturidade da dívida do governo afeta toda a estrutura a termo e tal efeito é mais intenso para títulos mais longos. Com esse intuito, testou-se se, para dados brasileiros, o prazo médio dos títulos afetava tanto o excesso de retorno como os spreads na curva. Os resultados indicaram que o prazo médio afeta o spread e o excesso de retorno, com efeito mais intenso no segundo.
Resumo:
Este estudo analisa o efeito da cobrança da taxa de performance sobre os fundos de ações na indústria brasileira de fundos de investimento. As taxas de performance cobradas dos fundos de investimento podem ser equiparadas a uma opção financeira de compra. Em tese, o valor da opção de compra é diretamente proporcional (ceteris paribus) à volatilidade do ativo subjacente (neste caso a cota do fundo). Sendo assim, há um claro incentivo ao aumento da volatilidade das cotas dos fundos de ações que cobram taxa de performance. Entretanto, contrariando as expectativas, os resultados indicaram que os fundos de ações que cobraram taxa de performance apresentaram, não somente, risco inferior, como também, maior eficiência, aferida pela relação risco / retorno.
Resumo:
Este trabalho propõe a implementação de um modelo de três fatores em que os movimentos da Estrutura a Termo da Taxa de Juros são determinados por variáveis macroeconômicas observáveis. Desenvolvi o estudo com base na metodologia elaborada por Huse (2007), que propôs um novo modelo baseado nos estudos de Nelson e Siegel (1987) e Diebold e Li (2006). Os fatores utilizados foram: taxa de câmbio em reais por dólar, expectativa da taxa de inflação para daqui a doze meses, spread do Credit Default Swap com maturidade de cinco anos, taxa de desemprego, índice de commodities e expectativa da taxa SELIC para o final do ano corrente. O modelo foi capaz de explicar 94% das mudanças na estrutura a termo da taxa de juros. Aumentos na taxa de câmbio, na expectativa de taxa de inflação, no spread do Credit Default Swap, na taxa de desemprego e na expectativa da taxa SELIC estão diretamente relacionadas com aumento na curva de juros com zero cupom. Variações no preço das commodities estão inversamente relacionadas com variações na Estrutura a Termo da Taxa de Juros.
Resumo:
Este trabalho observa como as variáveis macroeconômicas (expectativa de inflação, juro real, hiato do produto e a variação cambial) influenciam a dinâmica da Estrutura a Termo da Taxa de Juros (ETTJ). Esta dinâmica foi verificada introduzindo a teoria de Análise de Componentes Principais (ACP) para capturar o efeito das componentes mais relevantes na ETTJ (nível, inclinação e curvatura). Utilizando-se as estimativas por mínimos quadrados ordinários e pelo método generalizado dos momentos, foi verificado que existe uma relação estatisticamente significante entre as variáveis macroeconômicas e as componentes principais da ETTJ.