983 resultados para CODIGOS CORRETORES DE ERROS


Relevância:

10.00% 10.00%

Publicador:

Resumo:

O ácido L-piroglutâmico (PGA) é o principal intermediário do ciclo γ-glutamil, que está relacionado à síntese e degradação da glutationa. Altos níveis de PGA no líquido cefalorraquidiano, sangue e outros tecidos, juntamente com a alta excreção urinária do mesmo (acidúria piroglutâmica ou 5-oxoprolinúria), ocorrem em alguns erros inatos do metabolismo envolvendo diferentes enzimas do ciclo γ-glutamil. Essas desordens são clinicamente caracterizadas por anemia hemolítica, acidose metabólica e disfunção neurológica severa. No entanto, os mecanismos de dano cerebral permanecem ainda não esclarecidos. Várias ações neurotóxicas foram previamente atribuídas ao PGA, como excitotoxicidade, inibição da atividade da Na+,K+-ATPase e alteração do metabolismo energético cerebral. No presente estudo, investigamos o possível papel do estresse oxidativo na neurotoxicidade do PGA. O efeito in vitro do PGA nas concentrações de 0,5 – 3,0 mM foi estudado sobre o potencial antioxidante total (TRAP), a reatividade antioxidante total (TAR), quimiluminescência, susbtâncias reativas ao ácido tiobarbitúrico (TBA-RS), e atividade das enzimas antioxidantes catalase (CAT), superóxido dismutase (SOD) e glutationa peroxidase (GPx) em córtex cerebral e cerebelo de ratos de 14 dias de vida. Tanto o TRAP quanto o TAR foram significativamente reduzidos nas estruturas estudadas. Ao contrário, a quimiluminescência e o TBA-RS não foram afetados pelo PGA. As atividades da CAT, SOD e GPx também não foram alteradas. Esses resultados mostram que o PGA pode diminuir as defesas antioxidantes nãoenzimáticas em córtex cerebral e cerebelo de ratos. Outros estudos, no entanto, parecem válidos a fim de melhor caracterizar o papel dos radicais livres na neurotoxicidade do PGA.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Como é amplamente conhecido, o fim da dicotomia Leste-Oeste determinou novos centros de poder econômico através da constituição de blocos envolvendo países da Europa, das Américas e da região do Pacífico. Avaliar a influência desse fenômeno para a economia da América Latina é o objetivo desta dissertação. Mais especificamente, procurar-se-á analisar o processo de integração econômica dos países latino-americanos à luz dessa nova realidade mundial. Para adequada compreensão desse fenômeno, é importante fazer menção aos esforços integração latino-americana ocorridos no passado, levando em conta os acerto e, principalmente, os erros dessas experiências.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

No contexto dinâmico atual do mercado de telecomunicação celular, é importante que as empresas celulares “escutem a voz do cliente” e entendam suas necessidades assim como os atributos que eles valoram. Adicionalmente, por trás destes atributos existem processos expandidos de fornecimento de serviços que embora sejam muitas vezes invisíveis para o cliente, são indispensáveis para atender suas necessidades. Nesse sentido, se faz necessário monitorar a qualidade nos processos, desde uma perspectiva do cliente, para poder garantir que os processos sejam reflexos dos atributos valorados por eles. Isto significa traduzir as necessidades do cliente em requisitos técnicos e de desenho mensuráveis, estabelecendo um processo de controle de indicadores de desempenho explícitos entre as partes participantes dos processos. A presente dissertação propõe um modelo de medição do grau de monitoramento da qualidade aplicado a empresas de telefonia celular que permite garantir que os atributos mais valorados pelos clientes sejam realmente atendidos, através de uma metodologia que inclui o levantamento e análise de todos os processos de apoio associados aos atributos mais valorados pelos clientes, a validação e priorização desses processos por um júri de expertos de telefonia celular, a proposta de um roteiro de qualidade e de indicadores de desempenho que visam identificar se os desejos dos clientes se refletem nos processos mais relevantes e finalmente termina com a aplicação do roteiro numa empresa especifica de telefonia celular. Os resultados obtidos demonstram que para os atributos escolhidos associados a atendimento no call center, atendimento na assistência técnica e faturamento pontual e preciso, os processos mais relevantes priorizados pelo Júri de executivos foram o encaminhamento sistêmico de acesso ao call center e o preparo dos atendentes na linha de frente no caso de call center, os de substituição temporal do aparelho e realização do diagnóstico do problema no aparelho no caso de assistência técnica e de processo de cadastro do serviço e processo de correção de erros detectados no controle de qualidade antes do faturamento no caso de faturamento. Finalmente, ressalta que no caso da empresa celular específica analisada, numa escala que vai de 0% até 100%, o roteiro de qualidade proposto deu uma nota de 72% no caso de call center, 22% no caso de assistência técnica e 68% no caso do faturamento. Isto indica que muitos dos processos analisados, que muitas vezes são transversais na empresa e envolvem muitas áreas, não são monitorados de forma completa para garantir a consecução dos atributos mais valorados pelos clientes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Simulador de processos é uma ferramenta valiosa, pois possibilita desde a validação de projetos e sua operabilidade prática até aumentos de produção e redução de custos. Devido a estes e outros fatores, o interesse industrial em técnicas e pacotes computacionais para a modelagem, simulação e otimização de processos tem crescido muito nos últimos anos. Juntamente com este interesse cresce a qualidade das ferramentas disponíveis no mercado para tal, mas estas ainda não satisfazem totalmente as expectativas de seus usuários. Este trabalho consiste no projeto de um novo simulador genérico para processos dinâmicos que satisfaça os usuários de forma mais completa do que os disponíveis atualmente no mercado. Para tanto, foram reunidas e, quando necessário, desenvolvidas novas técnicas relativas à descrição, análise e solução de problemas dinâmicos. Uma nova linguagem de modelagem orientada a objetos e um sistema de tradução da representação nesta linguagem para sistemas de equações foram propostos. Métodos de análise dos sistemas de equações provenientes da modelagem foram desenvolvidos com o intuito de auxiliar o usuário na detecção de erros de modelagem. Algoritmos para solução de sistemas dinâmicos e estacionários foram reunidos e uma arquitetura interna foi proposta. Por fim, o sistema como um todo foi testado através de sua aplicação em problemas típicos e outros que não podem ser resolvidos diretamente com os pacotes computacionais disponíveis no mercado. O teste com os problemas práticos provou que a estrutura proposta é adequada e apresenta uma série de vantagens quando comparada com softwares largamente utilizados na simulação de processos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese propõe-se a analisar os analistas de mercado de capitais de empresas brasileiras. Coletando informações do mercado e analisando o desempenho corrente das empresas, estes profissionais realizam projeções de resultados e fazem recomendações. Usando dados extraídos do sistema I/B/E/S, realiza-se uma abrangente pesquisa empírica das previsões e recomendações dos analistas, bem como de seu conteúdo informativo para o mercado brasileiro. O período de estudo foi entre janeiro 1995 a junho 2003. Inicialmente são discutidos conceitos e particularidades do modus operandi dos analistas de empresas brasileiras. A seguir, depois de uma revisão da literatura onde se documentam as principais contribuições e descobertas, procede-se a uma investigação da natureza dos erros de previsão dos analistas de empresas brasileiras. Características como a acurácia, viés e precisão das previsões dos analistas são apreciadas e contextualizadas em diferentes situações. Efetua-se um detalhamento analítico do conteúdo informativo dos diferentes tipos de revisões de previsões dos analistas e das surpresas provocadas pelo anúncio de resultados em desacordo com as expectativas. De modo geral, as revisões e as surpresas, na medida em que informarem o mercado, provocam variações de retornos. Encerra-se a tese com uma análise das recomendações dos analistas. Apura-se a distribuição percentual das recomendações, assim como os efeitos sobre os preços de recomendações de compra (buy) e de venda(sell). O desempenho das recomendações de consenso e o efeito das revisões de recomendações para cima (upgrade) e para baixo (downgrade) são exemplos de outros pontos analisados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Uma etapa fundamental no desenvolvimento de sistemas tolerantes a falhas é a fase de validação, onde é verificado se o sistema está reagindo de maneira correta à ocorrência de falhas. Uma das técnicas usadas para validar experimentalmente um sistema é injeção de falhas. O recente uso de sistemas largamente distribuídos para execução dos mais diversos tipos de aplicações, faz com que novas técnicas para validação de mecanismos de tolerância a falhas sejam desenvolvidas considerando este novo cenário. Injeção de falhas no sistema de comunicação do nodo é uma técnica tradicional para a validação de aplicações distribuídas, para forçar a ativação dos mecanismos de detecção e recuperação de erros relacionados à troca de mensagens. A condução de experimentos com injetores de comunicação tradicionais é feita pelo uso do injetor em uma máquina do sistema distribuído. Se o cenário desejado é de múltiplas falhas, o injetor deve ser instanciado independentemente nas n máquinas que as falhas serão injetadas. O controle de cada injetor é individual, o que dificulta a realização do experimento. Esta dificuldade aumenta significativamente se o cenário for um sistema distribuído de larga escala. Outro problema a considerar é a ausência de ferramentas apropriadas para a emulação de determinados cenários de falhas. Em aplicações distribuídas de larga escala, um tipo comum de falha é o particionamento de rede. Não há ferramentas que permitam diretamente a validação ou a verificação do processo de defeito de aplicações distribuídas quando ocorre um particionamento de rede Este trabalho apresenta o estudo de uma abordagem para injeção de falhas que permita o teste de atributos de dependabilidade de aplicações distribuídas de pequena e larga escala implementadas em Java. A abordagem considera a não obrigatoriedade da alteração do código da aplicação sob teste; a emulação de um cenário de falhas múltiplas que ocorrem em diferentes nodos, permitindo o controle centralizado do experimento; a validação de aplicações que executem em sistemas distribuídos de larga escala e consideram um modelo de falhas realista deste tipo de ambiente, incluindo particionamentos de rede. A viabilidade da abordagem proposta é mostrada através do desenvolvimento do protótipo chamado FIONA (Fault Injector Oriented to Network Applications), o qual atualmente injeta falhas em aplicações desenvolvidas sob o protocolo UDP.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese é uma discussão crítica, sob a ótica da formação de expectativas, da relação que se interpõe entre ciência econômica, como corpo de conhecimento, e seus agentes. Primeiro, examinamos abordagens relevantes sobre expectativas na análise econômica, indicando suas insuficiências. Argumentamos que a incorporação de expectativa, em qualquer tratamento analítico, deve envolver, principalmente, fundamentos epistêmicos. Segundo, sob a perspectiva da teoria de modernidade reflexiva desenvolvida por Anthony Giddens, buscamos identificar bases plausíveis para uma teoria de expectativa econômica. Concluímos que o processo de formação de expectativa é construção social, a partir da interdependência entre expertos e leigos. Denominamos esta conclusão por hipótese de expectativas socialmente construídas (HESC). Terceiro, propusemos um arcabouço analítico para incorporar a HESC. Basicamente, informação de expectativa se difunde através da mídia e do contato face a face entre agentes. Nova informação não resulta necessariamente em revisão de expectativas, o que vai depender, principalmente, de conhecimento econômico e vizinhança do agente. Por último, um exemplo de aplicação: o modelo-HESC foi submetido a três experimentos macroeconômicos, e seus resultados comparados àqueles obtidos por Mankiw e Reis (2002). A primeira conclusão desta tese é metodológica: expectativas dos agentes em modelos macroeconômicos não são determinadas a partir de equações do próprio modelo. A segunda é normativa: conhecimento e vizinhança são capazes de perpetuar ineficiências decorrentes de erros de expectativas. A terceira está relacionado com economia positiva: as diferenças entre os resultados do modelo de informação-rígida obtidos pelos autores acima e aqueles do modelo-HESC apontam para novas possibilidades explanatórias.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Estatística é uma ferramenta indispensável em todos os campos científicos. A Estatística descritiva é usada para sintetizar dados. O principal problema desta área está relacionado aos valores de uma amostra, os quais geralmente possuem erros que ocorrem durante a obtenção dos dados. Um dos objetivos deste trabalho é apresentar uma forma de representação para os valores amostrais que considera os erros contidos nestes valores. Esta representação é realizada através de intervalos. A literatura mostra que foram realizadas pesquisas somente em problemas de calcular os valores intervalares das medidas de dispersão variância, covariância e coeficiente de correlação, que a utilização da computação intervalar na solução de problemas de medidas de dispersão intervalar sempre fornece solução com intervalos superestimados (intervalos com amplitude grande), e que ao procurar uma solução com intervalos de amplitude pequena (através da computação da imagem intervalar), o problema passa a pertencer a classe de problemas NP-Difícil. Com o objetivo principal de analisar a complexidade computacional dos problemas de computar os valores dos indicadores estatísticos descritivos com entradas intervalares, e realizar uma classificação quanto a classe de complexidade, a presente tese apresenta: i) definições intervalares de medidas de tendência central, medidas de dispersão e separatrizes; ii) investigação da complexidade de problemas das medidas de tendência central média, mediana e moda, das medidas de dispersão amplitude, variância, desvio padrão, coeficiente de variação, covariância, coeficiente de correlação e das separatrizes e iii) representação intervalar dos valores reais, de tal modo que garante a qualidade de aproximação nos intervalos solução calculado através da extensão intervalar Primeiramente, apresentamos uma abordagem intervalar para os indicadores estatísticos e propomos algoritmos para a solução dos problemas de computar os intervalos de medidas de tendência central intervalar, dispersão intervalar e separatrizes intervalares. Tais algoritmos utilizam a aritmética intervalar definida por Moore, a extensão intervalar e foram projetados para serem executados em ambientes intervalares como IntLab e Maple Intervalar. Por meio da análise da complexidade computacional verificamos que os problemas de medidas de tendência central, dispersão e separatrizes, com entradas intervalares, pertencem à classe de problemas P. Este trabalho apresenta, portanto, algoritmos de tempo polinomial que calculam os intervalos dos indicadores estatísticos com entradas intervalares, e que retornam como solução intervalos com qualidade de aproximação. Os resultados obtidos no desenvolvimento do trabalho tornaram viável a computação da Estatística Descritiva Intervalar.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O ICTM (Interval Categorizer Tesselation Model), objeto da presente tese, é um modelo geral para análise de espaços de natureza geométrica, baseado em tesselaçoes, que é capaz de produzir uma categorização confiável de conjunto de pontos de um dado espaço, de acordo com múltiplas características dos pontos, cada característica correspondendo a uma camada do modelo. Por exemplo, na análise de terrenos geográficos, uma região geográfica pode ser analisada de acordo com a sua topografia, vegetaçao, demografia, dados econômicos etc, cada uma gerando uma subdivisão diferente da região. O modelo geral baseado em tesselações não está restrito, porém, a análise de espaços bi-dimensionais. O conjunto dos pontos analisados pode pertencer a um espaço multidimensional, determinando a característica multi-dimensional de cada camada. Um procedimento de projeção das categorizações obtidas em cada camada sobre uma camada básica leva a uma categorização confiavel mais significante, que combina em uma só classificação as análises obtidas para cada característica. Isto permite muitas análises interessantes no que tange a dependência mútua das características. A dimensão da tesselação pode ser arbitrária ou escolhida de acordo com algum critério específico estabelecido pela aplicação. Neste caso, a categorização obtida pode ser refinada, ou pela re-definição da dimensão da tesselação ou tomando cada sub-região resultante para ser analisada separadamente A formalização nos registradores pode ser facilmente recuperada apenas pela indexação dos elementos das matrizes, em qualquer momento da execução. A implementação do modelo é naturalmente paralela, uma vez que a análise é feita basicamente por regras locais. Como os dados de entrada numéricos são usualmente suscetíveis a erros, o modelo utiliza a aritmética intervalar para se ter um controle automático de erros. O modelo ICTM também suporta a extração de fatos sobre as regiões de modo qualitativo, por sentenças lógicas, ou quantitativamente, pela análise de probabilidade. Este trabalho recebe apoio nanceiro do CNPq/CTPETRO e FAPERGS.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A lei do preço único afirma que o mesmo ativo negociado em diferentes mercados deve apresentar preços equivalentes. Este trabalho busca verificar se o risco de crédito soberano brasileiro negociado no mercado internacional é precificado de forma semelhante tanto nos tradicionais mercados de títulos quanto no novo e crescente mercado de derivativos de crédito. Adicionalmente, utiliza-se a análise de Price Discovery para examinar qual dos mercados se move mais rapidamente em resposta às mudanças nas condições de crédito da economia brasileira. A análise empírica é feita por meio de modelos de séries de tempo, mais especificamente análise de cointegração e vetor de correção de erros. Os resultados confirmam a predição teórica da lei do preço único de que o risco de crédito brasileiro, tanto nos mercados de títulos quanto no mercado de derivativos de crédito, movem-se juntos no longo prazo. Por fim, a maior parte do Price Discovery ocorre no mercado de derivativos de crédito.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A deficiência da semialdeído succínico desidrogenase, ou acidúria γ-hidroxibutírica, é um erro inato do metabolismo do ácido γ-aminobutírico. Bioquimicamente, é caracterizada pelo acúmulo de elevadas concentrações do ácido γ-hidroxibutírico nos tecidos, líquido cefalorraquidiano, sangue e urina dos pacientes. As manifestações clínicas descritas nesses pacientes são muito variadas e inespecíficas, mas observa-se que os principais sintomas e sinais clínicos são neurológicos. Entretanto, os mecanismos responsáveis pela disfunção neurológica desses pacientes são pouco conhecidos. Neste trabalho, o efeito in vitro do ácido γ-hidroxibutírico foi investigado sobre a quimiluminescência, as substâncias reativas ao ácido tiobarbitúrico (TBA-RS), o potencial antioxidante total (TRAP), a reatividade antioxidante total (TAR) e as atividades das enzimas antioxidantes superóxido dismutase (SOD), catalase (CAT) e glutationa peroxidase (GPX) em homogeneizados de córtex cerebral de ratos jovens com o intuito de esclarecer, ao menos em parte, a etiopatogenia dos sintomas neurológicos característicos dessa doença. O ácido γ-hidroxibutírico aumentou significativamente a quimiluminescência e os níveis de TBA-RS, enquanto que o TRAP e o TAR foram marcadamente reduzidos. No entanto, as atividades das enzimas antioxidantes não foram alteradas pelo ácido γ-hidroxibutírico. Esses resultados indicam que o ácido γ-hidroxibutírico estimula a lipoperoxidação e reduz as defesas antioxidantes não-enzimáticas, sugerindo a participação do estresse oxidativo na neuropatologia da deficiência da semialdeído succínico desidrogenase. Porém, esses achados devem ser confirmados em pacientes afetados por essa doença.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A doença de Lesch-Nyhan é um erro inato do metabolismo das purinas caracterizado pela deficiência na enzima hipoxantina- guanina fosforibosiltransferase. O bloqueio dessa reação resulta no acúmulo tecidual de hipoxantina, xantina e ácido úrico. A doença caracteriza-se por hiperuricemia, variado grau de retardo mental e motor, espasticidade e auto-mutilação. No sistema nervoso central, a Na+, K+ - ATPase é responsável pela manutenção da homeostase dos íons Na+ e K+, regulando o volume celular, a excitabilidade neuronal, o transporte de neurotransmissores e outras moléculas. Evidências na literatura demonstram que a redução na atividade da Na+, K+ - ATPase está relacionada com diversas doenças neurodegenerativas, tais como isquemia cerebral e doenças de Parkinson e de Alzheimer. No presente estudo, investigamos o efeito in vitro da hipoxantina, xantina e ácido úrico sobre a atividade da Na+, K+- ATPase em membrana plasmática sináptica de estriado de ratos. Estudamos, também, a cinética de inibição causada pela hipoxantina e de interação entre hipoxantina, xantina e ácido úrico. Nossos resultados demonstram que hipoxantina, xantina e ácido úrico inibem significativamente a atividade da Na+, K+- ATPase. O estudo dos mecanismos de inibição da atividade enzimática causados pela hipoxantina demonstrou um efeito inibitório não competitivo com o substrato ATP. Além disso, o estudo de interação cinética entre hipoxantina, xantina e ácido úrico sugere que esses compostos atuem em um mesmo sítio de ligação na enzima. Verificamos, também, o efeito da preincubação de homogeneizado de estriado de ratos na presença de hipoxantina (10 µM) sobre a atividade da Na+, K+- ATPase de membrana plasmática sináptica com a adição ou não de antioxidantes (glutationa e trolox), bem como alguns parâmetros de estresse oxidativo denominados TBARS (medida de lipoperoxidação) e TRAP (capacidade antioxidante tecidual não-enzimática) no intuito de verificar a participação do estresse oxidativo nos mecanismos de inibição enzimática provocados pela hipoxantina. Os resultados monstraram que a hipoxantina inibe significativamente a atividade da Na+, K+- ATPase. Adicionalmente, nossos resultados demonstraram que glutationa, mas não o trolox, na concentração de 1 mM, foi capaz de prevenir a inibição enzimática causada pela hipoxantina. Nossos resultados também mostraram que a hipoxantina, na mesma concentração, aumentou TBARS e diminuiu TRAP que essa substância induz o estresse oxidativo. É possível que a inibição na atividade da Na+, K+- ATPase possa estar envolvida nos mecanismos pelos quais as oxipurinas são neurotóxicas. Acreditamos que nossos resultados possam contribuir, pelo menos em parte, na compreensão da disfunção neurológica encontrada em pacientes portadores da doença de Lesch-Nyhan.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os investimentos são unanimemente considerados pelos economistas como o coração da economia. Entre as diversas variáveis que afetam os investimentos privados as mais estudadas são as formas de financiamento do déficit público que afetam o ambiente macroeconômico: colocação de dívida ou emissão monetária. Menos atenção tem sido dada às formas de gasto público que afetam o ambiente microeconômico das empresas: aumentos dos salários no setor público podem afetar os salários do setor privado com impactos negativos sobre a lucratividade das empresas e de seus investimentos; por outro lado aumentos dos investimentos públicos, principalmente em infra estrutura tendem a ter impacto oposto. Esta dissertação estimou o impacto destas diferentes formas de gasto público para os investimentos privados Brasil nos últimos 50 anos, utilizando um modelo de correção de erros. No longo prazo se confirmam as previsões microeconômicas: enquanto os investimentos públicos afetam positivamente o investimento privado, os salários do setor público afetam negativamente esta variável. Já no curto prazo apenas o investimento público e privado defasado permaneceram significantes, cujos coeficientes apresentam os mesmos sinas da equação de longo prazo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo deste estudo é apresentar estimações das elasticidades das equações da oferta de exportação e da demanda de importação para o Brasil de 1980 a 2006 a partir de dados trimestrais. Na análise empírica, foram utilizadas as técnicas de cointegração multivariada de Johansen Juselius e modelo de correção de erros (ECM). As exportações brasileiras em valores podem melhor ser explicadas quando decompostas nos índices de preços médios e de volume, pois ambos dependem do índice de preços internacionais de commodities. Usando variáveis macroeconômicas como a taxa de câmbio real, o volume das exportações mundiais e o índice de preços internacionais de commodities, a evidência empírica sugere que existe uma relação de cointegração entre o volume exportado brasileiro e essas variáveis. As estimações também foram realizadas de forma desagregada para produtos básicos, semimanufaturados e manufaturados. Comprovamos a hipótese de que o país é um tomador de preços no comércio internacional, através de testes de causalidade de Granger e de modelo VAR para conhecer a resposta dos preços dos bens exportados a um choque nos preços internacionais de commodities, que se mostrou persistente nos testes realizados. Por sua vez, as estimativas da função de demanda de importação totais e por categoria de uso (bens intermediários, bens de capital, bens de consumo duráveis e não duráveis) também apresentaram uma relação estável de longo prazo entre volume das importações brasileiras, preço relativo e nível de renda doméstico, sendo os últimos medidos pelo câmbio real e o PIB respectivamente. Adicionalmente, foram incluídas as reservas internacionais, variável não comumente utilizada da literatura sobre o tema para o país. Os resultados encontrados vão de encontro a outros estudos, mostrando maior elasticidade da renda do que dos preços.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As observações relatadas por Myers e Thompson, em seu artigo “Generalized Optimal Hedge Ratio Estimation” de 1989, foram analisadas neste estudo utilizando o boi gordo como a commodity de interesse. Myers e Thompson, demonstraram teórica e empiricamente, ser inapropriado o uso do coeficiente angular da regressão simples, dos preços à vista sobre os preços futuros como forma de estimar a razão ótima de hedge. Porém, sob condições especiais, a regressão simples com a mudança dos preços resultou em valores plausíveis, próximos àqueles determinados por um modelo geral. Este modelo geral, foi desenvolvido com o intuito de estabelecer os parâmetros para comparar as diferentes abordagens na estimativa da razão ótima de hedge. O coeficiente angular da reta da regressão simples e a razão ótima de hedge tem definições similares, pois ambos são o resultado da divisão entre a matriz de covariância dos preços, à vista e futuros e a variância dos preços futuros. No entanto, na razão ótima de hedge estes valores refletem o momento condicional, enquanto que na regressão simples são valores não condicionais. O problema portanto, está em poder estimar a matriz condicional de covariância, entre os preços à vista e futuros e a variância condicional dos preços futuros, com as informações relevantes no momento da tomada de decisão do hedge. Neste estudo utilizou-se o modelo de cointegração com o termo de correção de erros, para simular o modelo geral. O Indicador ESALQ/BM&F foi utilizado como a série representativa dos preços à vista, enquanto que para os preços futuros, foram utilizados os valores do ajuste diário dos contratos de boi gordo, referentes ao primeiro e quarto vencimentos, negociados na Bolsa Mercantil e de Futuros - BM&F. Os objetivos do presente estudo foram: investigar se as observações feitas por Myers e Thompson eram válidas para o caso do boi gordo brasileiro, observar o efeito do horizonte de hedge sobre a razão ótima de hedge e o efeito da utilização das séries diárias e das séries semanais sobre a estimativa da razão ótima de hedge. Trabalhos anteriores realizados com as séries históricas dos preços do boi gordo, consideraram apenas os contratos referentes ao primeiro vencimento. Ampliar o horizonte de hedge é importante, uma vez que as atividades realizadas pelos agentes tomam mais do que 30 dias. Exemplo disto é a atividade de engorda do boi, que pode levar até 120 dias entre a compra do boi magro e a venda do boi gordo. Demonstrou-se neste estudo, que o uso das séries semanais, é o mais apropriado, dado a diminuição substancial da autocorrelação serial. Demonstrou-se também, que as regressões com as mudanças dos preços, resultaram em estimativas da razão de hedge próximas daquelas obtidas com o modelo geral e que estas diminuem com o aumento do horizonte de hedge.