957 resultados para Códigos lineares


Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo deste trabalho foi mostrar modelagens alternativas à tradicional maneira de se apurar o risco de mercado para ativos financeiros brasileiros. Procurou-se cobrir o máximo possível de fatores de risco existentes no Brasil; para tanto utilizamos as principais proxies para instrumentos de Renda Fixa. Em momentos de volatilidade, o gerenciamento de risco de mercado é bastante criticado por trabalhar dentro de modelagens fundamentadas na distribuição normal. Aqui reside a maior contribuição do VaR e também a maior crítica a ele. Adicionado a isso, temos um mercado caracterizado pela extrema iliquidez no mercado secundário até mesmo em certos tipos de títulos públicos federais. O primeiro passo foi fazer um levantamento da produção acadêmica sobre o tema, seja no Brasil ou no mundo. Para a nossa surpresa, pouco, no nosso país, tem se falado em distribuições estáveis aplicadas ao mercado financeiro, seja em gerenciamento de risco, precificação de opções ou administração de carteiras. Após essa etapa, passamos a seleção das variáveis a serem utilizadas buscando cobrir uma grande parte dos ativos financeiros brasileiros. Assim, deveríamos identificar a presença ou não da condição de normalidade para, aí sim, realizarmos as modelagens das medidas de risco, VaR e ES, para os ativos escolhidos, As condições teóricas e práticas estavam criadas: demanda de mercado (crítica ao método gausiano bastante difundido), ampla cobertura de ativos (apesar do eventual questionamento da liquidez), experiência acadêmica e conhecimento internacional (por meio de detalhado e criterioso estudo da produção sobre o tema nos principais meios). Analisou-se, desta forma, quatro principais abordagens para o cálculo de medidas de risco sendo elas coerentes (ES) ou não (VaR). É importante mencionar que se trata de um trabalho que poderá servir de insumo inicial para trabalhos mais grandiosos, por exemplo, aqueles que incorporarem vários ativos dentro de uma carteira de riscos lineares ou, até mesmo, para ativos que apresentem risco não-direcionais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta Tese resulta de uma investigação que tem por objeto o estudo sobre a docência no ensino superior. A pesquisa deseja colaborar com um movimento nacional, que vem discutindo a questão da formação do professor. Os dados coletados para o estudo são oriundos da análise de documentos, entrevistas e observação da sala de aula em uma instituição de ensino superior. O cenário da docência em termos históricos é brevemente abordado, para então inserir uma reflexão mais detalhada, considerando quatro dimensões sobre a prática docente: a dimensão ótica, a dimensão da imagem pública da profissão, a normativa e a dimensão sobre as expectativas em relação à educação continuada. Nesse entorno, os fios do controle, dos códigos, da pedagogia, das sensibilidades, da criatividade, dos poderes e saberes vão tecendo a docência, construindo diferentes estilos e práticas. Inspirada em uma perspectiva foucaultiana, a reflexão tem como propósito assegurar um movimento constante de reflexão sobre os processos de fabricação e captura do sujeito no contexto acadêmico, que tende a ajustar o perfil do docente às políticas institucionais. A pesquisa foi realizada em uma Instituição de Ensino Superior de caráter confessional (luterana) localizada no sul do Brasil, na cidade de Joinville. Em primeiro lugar, a pesquisa aponta os atravessamentos de discursos, as diferenças entre os discursos oficiais e todos os demais, demonstrando que em uma instituição educacional sempre estão presentes vários discursos que acabam sendo controlados, selecionados e distribuídos conforme determinados interesses e necessidades. A docência, na instituição em questão, desdobra-se em alguns estilos, definidos pela pesquisadora como docente-intelectual, docente-educador, docente-técnico e docente-militante Na análise destes estilos percebe-se que o “institucional”, em muitas situações, tem mais relação com movimentos de regulação e obediência do que efetivamente com uma vontade de identidade. A pesquisa destacou uma possível relação entre a docência e a estética, que implica a capacidade de jogar com a verdade de um outro jeito, exatamente por não querer ficar alheio à construção dessa realidade em um cenário institucional. Ficar alheio a esse processo é tão perigoso quanto desejar prescrevê-lo compulsivamente. “Os fios que tecem a docência”, através de um estudo de caso, deseja contribuir com a reflexão a respeito da formação do professor, demonstrando como tal tema não se reduz ao pedagógico, mas está imbricado em toda a configuração institucional que abriga o docente. Olhar para esta paisagem maior implica estar disposto a dar um outro lugar para o docente, reencantar esses sujeitos para que possam coletivamente mobilizar-se para a busca de um compromisso novo com a sociedade no que diz respeito à educação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A manipulação neonatal imprime alterações no desenvolvimento neuroendócrino, morfológico e comportamental de ratos. A área pré-óptica medial (MPOA) contém neurônios produtores do hormônio liberador do hormônio luteinizante (LHRH) que estão intimamente relacionados com a reprodução. Os núcleos periventricular anteroventral (AVPV) e a amígdala medial póstero-dorsal (MePD) são áreas do sistema nervoso central (SNC) que apresentam receptores de estrógeno, portanto poderiam estar atuando no feedback das gonadotrofinas. O objetivo deste trabalho foi verificar os efeitos da manipulação neonatal sobre o volume do núcleo, a densidade de células, o diâmetro do corpo celular de neurônios e o número total estimado de neurônios da MePD e AVPV dos lados direito e esquerdo, em ratas aos 11 e 90 dias de idade. Na MPOA, foram avaliadas a densidade de células e o diâmetro do corpo celular de neurônios. A MPOA apresentou uma redução da densidade numérica de 50% em ratas manipuladas de 11 dias e 50% em ratas manipuladas aos 90 dias de idade. A manipulação neonatal provocou alterações nos parâmetros analisados nas três áreas estudadas, quando comparadas aos grupos não manipulados. Na MePD a redução foi 63% e de 47% respectivamente aos 11 e aos 90 dias de idade. No AVPV a redução foi de 44% e de 54% aos 11 e 90 dias de idade. As dimensões lineares do soma dos neurônios da MePD e MPOA apresentaram uma redução de tal forma que o diâmetro dos neurônios no grupo manipulado foi significativamente menor do que o grupo não manipulado. Mas as dimensões lineares dos neurônios do AVPV não apresentaram alterações significativas. A manipulação neonatal por uma causa ainda desconhecida induz a alterações estáveis na MPOA, MePD e AVPV. A diminuição do número de neurônios nessas estruturas pode explicar a redução da atividade do eixo hipotálamo-hipófise-gonadal (HPG) em ratas adultas, manipuladas no período neonatal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho apresenta o desenvolvimento de uma ferramenta computacional de apoio ao diagnóstico através de imagens ecocardiográficas, denominada de “Echo Offline”. O “Echo Offline” foi projetado para mensuração de grandezas lineares em imagens ecocardiográficas digitais, possibilitando a realização de diagnósticos pós-exame e a integração dos dados colhidos no banco de dados da instituição médica. Um estudo transversal contemporâneo e aleatório foi realizado com uma população de quarenta e nove pacientes submetidos a exames ecocardiográficos, as imagens resultantes deste exame foram digitalizadas e um médico especialista mensurou um conjunto de variáveis pré-definidas utilizando o método convencional, ou seja, usando as facilidades oferecidas pelo equipamento de ultra-som comercial. Um segundo médico especialista produziu outros dois conjuntos de dados utilizando o “Echo offline” e desta forma foi possível avaliar a exatidão e a repetibilidade das medidas realizadas pela ferramenta “Echo offline”. O “Echo offline” apresentou uma elevada concordância com o método convencional e apresentou significativa redução no tempo de realização das medidas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A presente dissertação versa sobre a sincronização idêntica em redes de osciladores caóticos. Uma perspectiva razoavelmente histórica sobre a literatura da área é apresentada . O conceito de caos é introduzido junto com outras idéias da dinâmica não-linear: sistemas dinâmicos, exemplos de sistemas, atratores, expoentes de Liapunov, etc. A integração numérica de equações diferenciais é largamente utilizada, principalmente, para o cálculo de expoentes e o desenho do diagrama de fases. A sincronização idêntica é definida, inicialmente, em redes que não passam de um par de osciladores. A variedade de sincronização (conjunto de pontos no espaço de fases no qual a solução do sistema é encontrada se há sincronização) é determinada. Diferentes variantes de acoplamentos lineares são enfocadas: acoplamento interno, externo, do tipo mestre-escravo e birecional, entre outras. Para detectar sincronização, usa-se o conceito de expoente de Liapunov transversal, uma extensão do conceito clássico de expoente de Liapunov que caracteriza a sincronização como a existência de um atrator na variedade de sincronização. A exposição é completada com exemplos e atinge relativo detalhe sobre o assunto, sem deixar de ser sintética com relação à ampla literatura existente. Um caso de sincronização em antifase que usa a mesma análise é incluído. A sincronização idêntica também é estudada em redes de osciladores idênticos com mais de dois osciladores. As possibilidades de sincronização completa e parcial são explanadas. As técnicas usadas para um par de osciladores são expandidas para cobrir este novo tipo de redes. A existência de variedades de sincronização invariantes é considerada como fator determinante para a sincronização. A sincronização parcial gera estruturas espaciais, analisadas sob a denominação de padrões. Algumas relações importantes entre as sincronizações são explicitadas, principalmente as degenerescências e a relação entre a sincronização parcial e a sincronização completa do respectivo estado sincronizado para alguns tipos de acoplamento. Ainda são objetos de interesse as redes formadas por grupos de osciladores idênticos que são diferentes dos osciladores dos outros grupos. A sincronização parcial na qual todos os grupos de osciladores têm seus elementos sincronizados é chamada de sincronização primária. A sincronização secundária é qualquer outro tipo de sincronização parcial. Ambas são exemplificadas e analisadas por meio dos expoentes transversais e novamente por meio da existência de invariantes de sincronização. Obtém-se, então, uma caracterização suficientemente ampla, completada por casos específicos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A presente dissertação tem como objetivo estudar e aprimorar métodos de projetos de controladores para sistemas de potência, sendo que esse trabalho trata da estabilidade dinâmica de sistemas de potência e, portanto, do projeto de controladores amortecedores de oscilações eletromecânicas para esses sistemas. A escolha dos métodos aqui estudados foi orientada pelos requisitos que um estabilizador de sistemas de potência (ESP) deve ter, que são robustez, descentralização e coordenação. Sendo que alguns deles tiveram suas características aprimoradas para atender a esses requisitos. A abordagem dos métodos estudados foi restringida à análise no domínio tempo, pois a abordagem temporal facilita a modelagem das incertezas paramétricas, para atender ao requisito da robustez, e também permite a formulação do controle descentralizado de maneira simples. Além disso, a abordagem temporal permite a formulação do problema de projeto utilizando desigualdades matriciais lineares (LMI’s), as quais possuem como vantagem o fato do conjunto solução ser sempre convexo e a existência de algoritmos eficientes para o cálculo de sua solução. De fato, existem diversos pacotes computacionais desenvolvidos no mercado para o cálculo da solução de um problema de inequações matriciais lineares. Por esse motivo, os métodos de projeto para controladores de saída buscam sempre colocar o problema na forma de LMI’s, tendo em vista que ela garante a obtenção de solução, caso essa solução exista.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A maioria dos métodos de síntese e sintonia de controladores, bem como métodos de otimização e análise de processos necessitam de um modelo do processo em estudo. A identificação de processos é portanto uma área de grande importância para a engenharia em geral pois permite a obtenção de modelos empíricos dos processos com que nos deparamos de uma forma simples e rápida. Mesmo não utilizando leis da natureza, os modelos empíricos são úteis pois descrevem o comportamento específico de determinado processo. Com o rápido desenvolvimento dos computadores digitais e sua larga aplicação nos sistemas de controle em geral, a identificação de modelos discretos foi amplamente desenvolvida e empregada, entretanto, modelos discretos não são de fácil interpretação como os modelos contínuos pois a maioria dos sistema com que lidamos são de representação contínua. A identificação de modelos contínuos é portanto útil na medida que gera modelos de compreensão mais simples. A presente dissertação estuda a identificação de modelos lineares contínuos a partir de dados amostrados discretamente. O método estudado é o chamado método dos momentos de Poisson. Este método se baseia em uma transformação linear que quando aplicada a uma equação diferencial ordinária linear a transforma em uma equação algébrica evitando com isso a necessidade do cálculo das derivadas do sinais de entrada e saída Além da análise detalhada desse método, onde demonstramos o efeito de cada parâmetro do método de Poisson sobre o desempenho desse, foi realizado também um estudo dos problemas decorrentes da discretização de sinais contínuos, como por exemplo o efeito aliasing decorrente da utilização de tempos de amostragem muito grandes e de problemas numéricos da identificação de modelos discretos utilizando dados com tempos de amostragem muito pequenos de forma a destacar as vantagens da identificação contínua sobre a identificação discreta Também foi estudado um método para compensar a presença de offsets nos sinais de entrada e saída, método esse inédito quando se trata do método dos momentos de Poisson. Esse trabalho também comprova a equivalência entre o método dos momentos de Poisson e uma metodologia apresentada por Rolf Johansson em um artigo de 1994. Na parte final desse trabalho são apresentados métodos para a compensação de erros de modelagem devido à presença de ruído e distúrbios não medidos nos dados utilizados na identificação. Esses métodos permitem que o método dos momentos de Poisson concorra com os métodos de identificação discretos normalmente empregados como por exemplo ARMAX e Box-Jenkins.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho são descritos estudos comparativos de reações de oligomerização do etileno utilizando complexos do tipo: Ni-[P^O] e Ni-[Diimina] (na presença de MAO como cocatalisador). A pesquisa foi realizada com o objetivo de verificar e comparar o comportamento dos dois complexos em estudo, quando estes passam do meio homogêneo para o meio bifásico (na presença de um líquido iônico). O líquido iônico utilizado é o tetrafluorborato de 1-butil-3-metilimidazol. Foram avaliados parâmetros reacionais como pressão, temperatura, tempo de reação, velocidade de agitação e volume de líquido iônico para o catalisador Ni-[P^O] nos meios homogêneo e bifásico. Para o precursor Ni-[Diimina], os parâmetros avaliados foram pressão e temperatura nos dois meios. Os produtos obtidos são olefinas lineares e ramificadas, principalmente α-olefinas; com faixa de distribuição de C4 a C20 (Distribuição Shulz-Flowry). As atividades obtidas nos ciclos de reações variam entre 21 h-1 a 32.772 h-1, e os resultados são interpretados envolvendo os mecanismos de reação. Devido as diferenças existentes entre nos complexos em estudo, verifica-se diferentes atividades e diferentes faixas de produtos oligoméricos. O comportamento obtido para cada complexo depende diretamente dos parâmetros reacionais utilizados, além do meio ao qual foram submetidos durante as reações.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho discute a racionalidade econômica para o desenvolvimento de um sistema de metas sociais como forma de o governo federal aumentar a eficiência na utilização dos recursos sociais transferidos para os municípios. O trabalho desenvolve algumas extensões do modelo de agente-principal incluindo abordagens estáticas com e sem informação imperfeita e abordagens dinâmicas com contratos perfeitos e imperfeitos. Os resultados dos modelos estáticos indicam que o uso de critérios usuais de focalização onde localidades mais pobres recebem mais recursos pode levar a incentivos adversos para a erradicação da pobreza. Nós também mostramos que transferências incondicionais do governo federal deslocam gastos sociais locais. O trabalho argumenta em favor do uso de contratos onde quanto maior for a melhora no indicador social escolhido, mais recursos o município receberia. A introdução de informação imperfeita neste modelo basicamente gera uma penalidade aos segmentos pobres de áreas onde os governos demonstram ser menos avessos a pobreza. O trabalho também aborda o problema de favoritismo político onde determinados grupos sociais têm maior, ou menor, atenção por parte de governos locais. O resultado é que as políticas sociais acabam privilegiando determinados setores em detrimento de outros. Com o estabelecimento de metas sociais é possível, se não eliminar o problema, ao menos criar incentivos corretos para que os gastos sociais sejam distribuídos de forma mais equânime. Também desenvolvemos modelos dinâmicos com diferentes possibilidades de renegociação ao longo do tempo. Demonstramos que a melhor forma de aumentar a eficiência alocativa dos fundos seria criar mecanismos institucionais garantindo a impossibilidade de renegociações bilaterais. Esse contrato ótimo reproduz a seqüência de metas e transferências de vários períodos encontrada na solução do modelo estático. Entretanto, esse resultado- desaparece quando incorporamos contratos incompletos. Nesse caso, as ineficiências ex-ante criadas pela possibilidade de renegociação devem ser comparadas com as ineficiências ex-post criadas por não se usar a informação nova revelada ao longo do processo. Finalmente, introduzimos a possibilidade do resultado social observado depender não só do investimento realizado, mas também da presença de choques. Nesse caso, tanto o governo quanto o município aumentam as suas metas de investimento na área social. Contratos lineares na presença de choques negativos fazem com que os municípios recebem menos recursos justamente em situações adversas. Para contornar esse problema, mostramos a importância da utilização de contratos com comparação de performance.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

nRPN, nRPNSTAT e nRPNDYN são novos índices, propostos nesta dissertação, que quantificam o grau de não-linearidade total, estática e dinâmica, respectivamente, de sistemas dinâmicos não- lineares. Estes novos índices permitem responder se é necessária a utilização de controladores não-lineares ou se simples controladores lineares apresentarão desempenho satisfatório. Além disso, se um controlador não- linear se fizer necessário, quais características este deve apresentar. Nesta dissertação é realizado um estudo acerca das metodologias para determinação do grau de não- linearidade de plant as industriais. Entre as encontradas, a que apresenta as melhores potencialidades é estudada em detalhes, tendo seus atributos e deficiências explorados. As deficiências foram sanadas e um novo conjunto de índices é proposto (nRPN, nRPNSTAT e nRPNDYN), o qual, além de apresentar resultados conclusivos em termos quantitativos, também traz novas informações valiosas para a escolha do controlador adequado, como a parcela estática e dinâmica da não- linearidade. A metodologia proposta é aplicada e testada em um conjunto bastante amplo e complementar de possíveis sistemas dinâmicos não-lineares (tais como: pH, reatores químicos e coluna de destilação de alta pureza) onde o comportamento nãolinear já foi explorado na literatura O desenvolvimento e o estudo do comportamento dinâmico de uma planta laboratorial de cinco tanques acoplados são apresentados. Este sistema possui dinâmica e ganhos variáveis, descontinuidades, inversão no sinal do ganho multivariável e diferentes graus de acoplamento, ilustrando de forma simples vários possíveis comportamentos dinâmicos encontrados em plantas industriais. Devido a esta grande versatilidade a planta foi construída e testada, confirmando os comportamentos previstos nos estudos teóricos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A identificação de modelos é determinante no sucesso das modernas técnicas de controle avançado de processos. Um modelo para o sistema pode ser obtido através de modelagem rigorosa, baseada em equações governantes do sistema ou através da modelagem empírica e estimação de parâmetros. Embora mais rápida e fácil, a modelagem empírica necessita de alguns testes de identificação nos quais as variáveis manipuladas são variadas de modo que resultem em variações nas variáveis controladas. Os testes de identificação podem apresentar custos muito elevados tendo em vista que o sistema pode sair de seu ponto normal de operação, gerando produtos com folga de especificação. Este fato ocorre porque usualmente as perturbações aplicadas nas variáveis manipuladas nas indústrias de processos são independentes umas das outras, aumentando a duração do teste de identificação. Desta forma, neste trabalho foi desenvolvida uma nova metodologia de projeto de perturbações simultâneas para a identificação de modelos dinâmicos baseada na direcionalidade do sistema, com o objetivo de fornecer dados mais ricos para se capturar corretamente o comportamento multivariável do sistema e manter o processo no ponto de operação normal. As perturbações são projetadas conforme as características de um modelo simplificado do processo, ou pré-modelo. Este modelo inicial é obtido essencialmente de dados históricos de planta, selecionados através de uma sistemática análise de correlação desenvolvida neste trabalho A metodologia proposta é composta de duas partes: a primeira parte diz respeito à análise dos dados históricos de planta para obtenção de informações prelimirares as quais são utilizadas no planejamento de perturbações, tais como amplitude do ruído de medida, correlação entre as variáveis de processo, constante de tempo do sistema e matriz de ganhos. E a segunda parte consiste no cálculo da amplitude das perturbações baseado nos resultados da primeira etapa do planejamento. Para sistemas mal-condicionados verificou-se que as perturbações planejadas pela metodologia removem menos a planta de seu ponto de operação gerando resultados mais consistentes em relação às perturbações tradicionais. Já para sistemas bem-condicionados, os resultados são semelhantes. A metodologia foi aplicada em uma unidade piloto experimental e numa unidade de destilação da PETROBRAS, cujos resultados apontam pouca remoção dos sistemas do ponto de operação e modelos consistentes. A validação dos modelos também foi contemplada na dissertação, uma vez que foi proposto um novo critério de validação que considera a derivada dos dados de planta e a do modelo e não apenas os dados de planta e os dados da simulação das saídas do modelo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

With the ever increasing demands for high complexity consumer electronic products, market pressures demand faster product development and lower cost. SoCbased design can provide the required design flexibility and speed by allowing the use of IP cores. However, testing costs in the SoC environment can reach a substantial percent of the total production cost. Analog testing costs may dominate the total test cost, as testing of analog circuits usually require functional verification of the circuit and special testing procedures. For RF analog circuits commonly used in wireless applications, testing is further complicated because of the high frequencies involved. In summary, reducing analog test cost is of major importance in the electronic industry today. BIST techniques for analog circuits, though potentially able to solve the analog test cost problem, have some limitations. Some techniques are circuit dependent, requiring reconfiguration of the circuit being tested, and are generally not usable in RF circuits. In the SoC environment, as processing and memory resources are available, they could be used in the test. However, the overhead for adding additional AD and DA converters may be too costly for most systems, and analog routing of signals may not be feasible and may introduce signal distortion. In this work a simple and low cost digitizer is used instead of an ADC in order to enable analog testing strategies to be implemented in a SoC environment. Thanks to the low analog area overhead of the converter, multiple analog test points can be observed and specific analog test strategies can be enabled. As the digitizer is always connected to the analog test point, it is not necessary to include muxes and switches that would degrade the signal path. For RF analog circuits, this is specially useful, as the circuit impedance is fixed and the influence of the digitizer can be accounted for in the design phase. Thanks to the simplicity of the converter, it is able to reach higher frequencies, and enables the implementation of low cost RF test strategies. The digitizer has been applied successfully in the testing of both low frequency and RF analog circuits. Also, as testing is based on frequency-domain characteristics, nonlinear characteristics like intermodulation products can also be evaluated. Specifically, practical results were obtained for prototyped base band filters and a 100MHz mixer. The application of the converter for noise figure evaluation was also addressed, and experimental results for low frequency amplifiers using conventional opamps were obtained. The proposed method is able to enhance the testability of current mixed-signal designs, being suitable for the SoC environment used in many industrial products nowadays.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os experimentos, foram conduzidos em uma área de campo natural, localizada na Fazenda Boa Vista, no Município de São José dos Ausentes, região dos Campos de Cima da Serra, Rio Grande do Sul. Os objetivos foram descrever o ambiente de pastagem natural da região, determinar a capacidade de suporte destas pastagens e avaliar alternativas de manejo para o inverno. As diferentes ofertas de forragem proporcionaram aumentos lineares no massa de forragem da pastagem, na taxa de acúmulo de matéria seca e no percentual de material morto. Nos parâmetros de resposta animal, as ofertas de forragem geraram modelos lineares para carga animal (kg/ha), GMD (kg/animal/dia), para a avaliação de produção por área foi obtida resposta quadrática, sendo o maior valor 69,7 kg/ha/ano. Para o levantamento florístico constatou-se que o campo é composto basicamente por gramíneas cespitosas estivais, sendo Andropogon lateralis a espécie mais abundante. Após a aplicação de quatro níveis de oferta de forragem (5, 9, 13 e 17% do PV), observou-se um aumento na participação de cyperaceas, principalmente Bulbostylis sphaerocephala. Para a avaliação dos suplementos, observou-se diferença entre os tratamentos, sendo o pastejo temporário superior em GMD à ração e às misturas múltiplas. Verificou-se que a aplicação de calcário em superfície é recomendável e soluciona os problemas decorrentes dos altos teores de Al trocável. A introdução de espécies sobre o campo natural da região é indicada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação tem com objetivo avaliar uma das implicações da hipótese de expectativas para a estrutura a termo de taxa de juros brasileira. Utilizando testes lineares tradicionais e através da reprodução de testes não lineares TAR de Enders e Granger (1998) e ESTAR Kapetanios e Shin (2003) conclui-se que a hipótese de expectativas não é totalmente válida para a ETTJ do Brasil, além disso, são encontradas evidências de não linearidade nas séries de spreads que demandam mais pesquisa sobre o assunto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho tem três objetivos básicos, tendo como base um banco de dados de taxas reais de câmbio entre Brasil e 21 parceiros comerciais no período de 1957 a 2010. O primeiro objetivo é o de verificar a validade da Paridade do Poder de Compra entre Brasil e seus parceiros comerciais através de três testes de raiz unitária (ADF, PP, KPSS). Para a maioria dos países, os testes de raiz unitária foram inconclusivos ou não rejeitaram raiz unitária quando foram utilizados dados mensais e modelos lineares. Já para dados de periodicidade anual, houve maior aceitação de estacionariedade, além de um número menor de resultados inconclusivos. O segundo objetivo é o de investigar a hipótese em Taylor (2001) de que a meia-vida é superestimada quando a amostra é formada a partir de um processo de agregação temporal pela média. Os resultados confirmam as conclusões de Taylor e superestimam a meia-vida em uma janela de 35% a 56% do que seria a meia-vida calculada a partir de dados de final de período. O terceiro objetivo do trabalho é o de verificar se a taxa real de câmbio possui uma reversão não-linear à média. Considerando dados mensais, foi verificado que na maioria dos testes rejeita-se a hipótese nula de raiz unitária contra a hipótese alternativa de globalmente estacionária, porém não-linear.