83 resultados para Previsão com metodologia de Box-Jenkis


Relevância:

20.00% 20.00%

Publicador:

Resumo:

A grande disponibilidade de informações oferece um amplo potencial comercial. Contudo, o enorme volume e diversidade de oportunidades gera um problema: limitações comerciais criadas pela seleção e a manipulação manual dessa informação. O tratamento das grandes bases de dados não estruturadas e/ou semi-estruturadas (BDNE/SE), como as trazidas pela Internet, é uma fonte de conhecimento rica e confiável, permitindo a análise de mercados. O tratamento e a estruturação dessa informação permitirá seu melhor gerenciamento, a realização de consultas e a tomada de decisões, criando diferenciais competitivos de mercado. Pesquisas em Recuperação de Informação (RI), as quais culminaram nesta tese, investem na melhoria da posição competitiva de pequenas e médias empresas, hoje inseridas, pelo comércio eletrônico, em um mercado globalizado, dinâmico e competitivo. O objetivo deste trabalho é o desenvolvimento de uma Metodologia de Extração de Informações para o Tratamento e Manipulação de Informações de Comércio Eletrônico. Chamaremos essa metodologia de EI-MNBC, ou seja, Extração de Informações em Múltiplos Níveis Baseada em Conhecimento. Os usuários da EIMNBC podem rapidamente obter as informações desejadas, frente ao tempo de pesquisa e leitura manual dos dados, ou ao uso de ferramentas automáticas inadequadas. Os problemas de volume, diversidade de formatos de armazenamento, diferentes necessidades de pesquisa das informações, entre outros, serão solucionados. A metodologia EI-MNBC utiliza conhecimentos de RI, combinando tecnologias de Recuperação de Documentos, Extração de Informações e Mineração de Dados em uma abordagem híbrida para o tratamento de BDNE/SE. Propõe-se uma nova forma de integração (múltiplos níveis) e configuração (sistema baseado em conhecimento - SBC) de processos de extração de informações, tratando de forma mais eficaz e eficiente as BDNE/SE usadas em comércio eletrônico. Esse tratamento viabilizará o uso de ferramentas de manipulação de dados estruturados, como Sistemas Gerenciadores de Bancos de Dados, sobre as informações anteriormente desestruturadas. A busca do conhecimento existente em bases de dados textuais não estruturadas demanda a compreensão desses dados. O objetivo é enfatizar os aspectos cognitivos superficiais envolvidos na leitura de um texto, entendendo como as pessoas recuperam as informações e armazenando esse conhecimento em regras que guiarão o processo de extração. A estrutura da metodolo gia EI-MNBC é similar a de um SBC: os módulos de extração (máquinas de inferência) analisam os documentos (eventos) de acordo com o conteúdo das bases de conhecimento, interpretando as regras. O resultado é um arquivo estruturado com as informações extraíd as (conclusões). Usando a EI-MNBC, implementou-se o SE-MNBC (Sistema de Extração de Informações em Múltiplos Níveis Baseado em Conhecimento) que foi aplicado sobre o sistema ETO (Electronic Trading Opportunities). O sistema ETO permite que as empresas negociem através da troca de e-mails e o SE-MNBC extrai as informações relevantes nessas mensagens. A aplicação é estruturada em três fases: análise estrutural dos textos, identificação do assunto (domínio) de cada texto e extração, transformando a informação não estruturada em uma base de dados estruturada.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho descreve PMT – Pattern-based Methodology Tailoring, uma abordagem para a adaptação de metodologias de desenvolvimento de software, baseada em padrões e em critérios de risco. Seu principal objetivo é estabelecer meios de se adaptar uma linguagem de padrões organizacionais ao contexto de um projeto específico, o que é obtido através da seleção sistemática dos padrões organizacionais mais adequados aos requisitos do projeto. O trabalho é motivado pelo levantamento de que os arcabouços de processos de software existentes pouco fazem para compreender as necessidades de um projeto antes de definir a metodologia a ser aplicada. PMT utiliza uma análise dos riscos e do contexto de criticalidade para guiar o processo de adaptação. Padrões organizacionais que descrevem técnicas preventivas para os riscos identificados são selecionados por um mecanismo sistemático de seleção, o qual é suportado por uma ferramenta, chamada PMT-Tool.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A formação interna da estrutura de uma peça fundida deve determinar as características mecânicas dessa peça, quando em serviço. Dessa forma, torna-se fundamental conhecer e parametrizar os elementos que influem na formação da estrutura do componente sólido, para o desenvolvimento adequado de sistemas de solidificação que permitam conduzir a melhoria da qualidade de uma peça no processo de solidificação. Modelos numéricos podem ser empregados para a determinação da formação estrutural, entretanto estes devem ser aferidos adequadamente para garantir sua aplicabilidade. No trabalho em questão, desenvolveu-se uma metodologia que permitiu a aferição de um modelo numérico para a previsão das condições de resfriamento de ligas de alumínio. Elaborou-se um conjunto de coquilhas e moldes que permitiram o acoplamento e verificação da estrutura formada na solidificação em diferentes situações de resfriamento, observando principalmente a direção de extração de calor e a taxa de resfriamento associada. O modelo numérico aplicado respondeu coerentemente aos resultados obtidos permitindo a previsão da estrutura solidificada pela observação dos resultados de evolução das isotermas solidus e liquidus no interior dos sistemas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A conscientização das indústrias, em especial o Setor Moveleiro, em relação ao meio ambiente, vem impulsionando as mesmas para o desenvolvimento de produtos com inovações sustentáveis. Dentro deste contexto o presente trabalho teve como objetivo estudar a biônica como ferramenta de trabalho de ecodesign, originando desenvolvimento sustentável na produção de produtos da Indústria Moveleira, em particular dobradiças (elementos de abertura e fechamento de portas em móveis). Utilizou-se biônica, que se caracteriza na procura de modelos na natureza que passaram por um processo evolutivo e seletivo de suas formas e funções. A metodologia da biônica foi aplicada na análise de dobradiças de abertura e fechamento de portas de móveis já existentes no mercado consumidor, em analogia com modelos da natureza, como estrutura craniana e mandibular de cobras e estrutura de patas (pereiópodos) de crustáceos. Este estudo resultou no desenvolvimento de um projeto conceitual de dobradiça com menos materiais e menor número de peças, com viabilidade técnica baseado nos conceitos de ecodesign e sustentabilidade.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A armazenagem de grãos é atualmente um importante tópico a ser explorado na região sul do Brasil, e vem se desenvolvendo consideravelmente nos últimos anos. Atualmente a armazenagem é feita através de silos cilíndricos que podem ser de grandes diâmetros ou elevados. Na área da armazenagem é importante implantar novas tecnologias como o caso de silos multicelulares prismáticos que são bastante difundidos nos Estados Unidos. Para estudar estes silos propõe-se analisar um caso real sob a ótica morfológica e dimensional. O estudo baseia-se na comparação entre métodos de análise estrutural analítica convencional com análise numérica através do cálculo por elementos finitos, além de testar as análises de cálculo mais avançadas. Para estudar um caso real buscaram-se informações detalhadas através de desenhos fornecidos por empresas que fabricam estes tipos de silos. Adotando um caso prático como padrão, na seqüência fez-se a análise da interação entre o número de módulos do silo com o objetivo de verificar a influência do número de módulos no dimensionamento dos componentes do silo. Analisou-se o referido projeto utilizando procedimentos clássicos de análise de dimensionamento (métodos analíticos) e compararam-se os mesmos com a análise utilizando o método dos elementos finitos. Adicionalmente executaram-se análises mais avançadas utilizando o método dos elementos finitos como não linearidade geométrica e física, flambagem e análise de freqüências e modos.Após as referidas análises pôde-se concluir que analisando dimensionalmente somente um módulo do silo, pode-se obter resultados que representam todo o conjunto de módulos. Além disso, verificou-se que a análise por elementos finitos é mais apropriada, pois permite menos simplificações de cálculo, apresentando assim resultados mais reais. Quanto às análises adicionais, verificou-se que a carga crítica de flambagem considerando a análise não linear geométrica por elementos finitos é maior do que a carga crítica obtida por análises convencionais.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho apresenta uma proposta de metodologia para avaliação da condição superficial de pavimentos, asfálticos, de paralelepípedos e pedras irregulares, a ser aplicada no inventário do estado da malha viária para implantação do sistema de gerência de pavimentos da cidade de Porto Alegre. Propõe-se o emprego de duas componentes: a avaliação objetiva e a avaliação subjetiva. A avaliação objetiva trata do levantamento quantitativo da degradação existente na superfície. Para tanto, são apresentadas as descrições e níveis de severidade dos tipos de defeitos e os procedimentos para o inventário. A avaliação subjetiva consiste na atribuição de notas pelos avaliadores à condição da superfície. Buscando a homogeneidade nas respostas, foram estabelecidos critérios para auxiliar na definição do estado dos pavimentos. É proposto o emprego de curvas de valores de dedução para determinar o Índice da Condição do Pavimento, de modo análogo ao método PCI elaborado pelo Corpo de Engenheiros do Exército dos Estados Unidos. São apontados os procedimentos a serem empregados para a determinação das curvas de valores de dedução que representem as condições locais. Também foi realizada uma pesquisa para conhecer a opinião dos usuários sobre a condição de tráfego de alguns trechos e sobre a influência dos defeitos na qualidade de rolamento, na segurança e no custo de operação. Complementarmente, foi efetuada uma aplicação da metodologia proposta em trechos amostrais e apresentadas as análises sobre os resultados obtidos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A maioria dos métodos de síntese e sintonia de controladores, bem como métodos de otimização e análise de processos necessitam de um modelo do processo em estudo. A identificação de processos é portanto uma área de grande importância para a engenharia em geral pois permite a obtenção de modelos empíricos dos processos com que nos deparamos de uma forma simples e rápida. Mesmo não utilizando leis da natureza, os modelos empíricos são úteis pois descrevem o comportamento específico de determinado processo. Com o rápido desenvolvimento dos computadores digitais e sua larga aplicação nos sistemas de controle em geral, a identificação de modelos discretos foi amplamente desenvolvida e empregada, entretanto, modelos discretos não são de fácil interpretação como os modelos contínuos pois a maioria dos sistema com que lidamos são de representação contínua. A identificação de modelos contínuos é portanto útil na medida que gera modelos de compreensão mais simples. A presente dissertação estuda a identificação de modelos lineares contínuos a partir de dados amostrados discretamente. O método estudado é o chamado método dos momentos de Poisson. Este método se baseia em uma transformação linear que quando aplicada a uma equação diferencial ordinária linear a transforma em uma equação algébrica evitando com isso a necessidade do cálculo das derivadas do sinais de entrada e saída Além da análise detalhada desse método, onde demonstramos o efeito de cada parâmetro do método de Poisson sobre o desempenho desse, foi realizado também um estudo dos problemas decorrentes da discretização de sinais contínuos, como por exemplo o efeito aliasing decorrente da utilização de tempos de amostragem muito grandes e de problemas numéricos da identificação de modelos discretos utilizando dados com tempos de amostragem muito pequenos de forma a destacar as vantagens da identificação contínua sobre a identificação discreta Também foi estudado um método para compensar a presença de offsets nos sinais de entrada e saída, método esse inédito quando se trata do método dos momentos de Poisson. Esse trabalho também comprova a equivalência entre o método dos momentos de Poisson e uma metodologia apresentada por Rolf Johansson em um artigo de 1994. Na parte final desse trabalho são apresentados métodos para a compensação de erros de modelagem devido à presença de ruído e distúrbios não medidos nos dados utilizados na identificação. Esses métodos permitem que o método dos momentos de Poisson concorra com os métodos de identificação discretos normalmente empregados como por exemplo ARMAX e Box-Jenkins.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As regras do novo modelo de mercado para o Setor Elétrico Brasileiro (SEB) foram publicadas em julho de 2004. A base deste modelo está na criação do Ambiente de Contratação Regulada (ACR) e o Ambiente de Contratação Livre (ACL), para comercialização de energia elétrica. No ACR, a contratação é feita por leilão, procurando-se atender à soma das demandas de todas as Distribuidoras participantes. Cada Gerador, vencedor do leilão, assina contratos bilaterais com todas as Distribuidoras, as quais podem estar localizadas em submercados diferentes e, assim, expor os Geradores ao chamado “risco de submercado”. No entanto, no ACR, este risco é assumido pelas Distribuidoras, que poderão, eventualmente, repassá-los aos consumidores finais. Por outro lado, no ACL este risco continuará sendo assumido pelos Geradores no caso de contratos entre submercados. Neste contexto, o objetivo do presente trabalho é propor uma metodologia para precificação e análise dos riscos de submercado de um Gerador operando no ACL, com base na teoria da “utilidade esperada”. São analisados dois estudos de caso, de uma contratação bilateral diretamente com um consumidor e da participação em um leilão de compra de energia elétrica realizado em um submercado “vizinho”. Em ambos os casos, analisados com dados reais do sistema elétrico brasileiro, os resultados obtidos comprovam que a abordagem de “utilidade esperada” captura de forma mais coerente o perfil de risco do Gerador, comparada à abordagem tradicional de precificação do risco pelo valor presente médio da renda, que considera o Gerador como sendo neutro à situações de risco.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O comportamento carga-recalque de sapatas assentes em solos residuais é perfeitamente representado a partir da interpretação de provas de carga. No entanto, a execução de provas de carga em fundações reais ou em placa é indesejada pela maioria dos construtores e contratantes por razões de cronograma e custo. Por outro lado, sondagens de simples reconhecimento (SPT) são de rápida execução, exigidas pela normalização vigente de projeto e execução de fundações (ASSOCIAÇÃO BRASILEIRA DE NORMAS TÉCNICAS, 1996) e largamente utilizados na geotecnia nacional, sendo tal ensaio normalizado pela da norma NBR 6.484/2001. Deste modo, nesta pesquisa, pretende-se estabelecer uma metodologia semi-empírica para estimar o comportamento de sapatas assentes em solos residuais a partir de correlação estatística de resultados de sondagens de simples reconhecimento (NSPT) com a tensão admissível e os recalques sob tensão de trabalho, obtidos a partir de resultados de provas de carga em placa ou fundações reais assentes em solos residuais. Deste modo, a partir de retro-análise de um conjunto de resultados de provas de carga executados em diferentes solos residuais, encontrados na literatura, e o uso de conceitos de estatística, obteve-se diversas correlações que possibilitam estimar o comportamento tensão-recalque deste tipo de solo através dos resultados médios dos ensaios de SPT Como resultados destas correlações foram obtidas equações para a previsão de recalques e tensão admissível de fundações assentes sobre solos residuais, bem como do módulo de elasticidade de tais solos. As equações de estimativa de recalques são dependentes, além dos resultados de SPT, da geometria da fundação e da tensão aplicada. Já as equações para a estimativa da tensão admissível e módulo de elasticidade são dependentes somente dos valores médios do ensaio de SPT. E finalmente, para testar as equações desenvolvidas, foi realizada uma análise “Classe A” no comportamento carga-recalque de três provas de carga realizadas em locais diferentes, mostrando a eficiência da metodologia desenvolvida para a determinação da tensão admissível e dos recalques em sapatas sob a aplicação de carga de trabalho assentes em solos residuais.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Informações sobre as condições de crescimento e expectativa de produção de culturas são importantes para a economia brasileira, visto que permitem um planejamento adequado da economia agrícola, contornando problemas de escassez e administrando com vantagens o excesso de produtos. Neste contexto, as tecnologias de sensoriamento remoto e geoprocessamento permitem a obtenção de informações precisas, em tempo hábil e com baixo custo. O presente trabalho teve como principal objetivo gerar subsídios para o aprimoramento do sistema atual de acompanhamento e previsão da safra de soja no Brasil, incorporando técnicas de sensoriamento remoto e geoprocessamento. Como objetivos específicos, buscou-se avaliar a acurácia da classificação digital de imagens LANDSAT para estimativa da área cultivada com soja e verificar a influência de aspectos regionais, tais como condições climáticas, de ocupação e de manejo, sobre a evolução temporal do índice de vegetação por diferença normalizada (NDVI), obtidos de imagens NOAA, visando o monitoramento da cultura da soja em projetos de previsão de safras. A estimativa de área cultivada com soja foi realizada através da classificação digital não supervisionada. Como verdade terrestre foram selecionadas 24 lavouras de soja, individualizadas na imagem com diferentes tamanhos e de diferentes regiões de uso e cobertura do solo, as quais foram quantificadas usando GPS de precisão topográfica. A verificação da acurácia da estimativa foi feita através de análise de regressão linear, sendo testada a significância do coeficiente de determinação. O monitoramento da cultura da soja foi realizada usando imagens decendiais de máximo NDVI. Nestas imagens, foram selecionadas 18 janelas amostrais, sendo extraídos os valores de NDVI e expressos na forma de perfis espectrais. Os resultados mostraram que a estimativa de área das lavouras cultivadas com soja, obtida através do processo de classificação digital não supervisionada em imagens LANDSAT, foi acurada e precisa para pequenas, médias e grandes lavouras, mostrando-se ser uma técnica eficiente para ser utilizada em projetos de previsão de safras de soja na região estudada. A evolução temporal do NDVI, obtida de imagens NOAA, apresentou sensibilidade quanto às diferenças de uso e cobertura do solo, demonstrando que as escalas espacial e temporal das imagens NOAA são adequadas para o acompanhamento em nível regional da evolução temporal da biomassa. Existe, ainda, potencial de uso de imagens NDVI para inferir sobre a área cultivada com soja em projetos de previsão de safras em escalas regionais, desde que a cultura seja predominante no pixel.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

o monitoramento da expansão das áreas urbanas e a análise da sua interação com o meio físico têm sido um grande desafio para os técnicos de planejamento urbano. No Brasil, em especial, dada a velocidade com que o fenômeno se processa e graças a um crescimento desordenado das cidades nas últimas décadas, esses estudos, que envolvem um elevado número de informações, tem exigido decisões e diagnósticos urbanos cada vez mais rápidos. Esta dissertação propõe uma metodologia para o planejamento racional do uso do solo urbano através do emprego integrado de tecnologias recentes como Sistema de Informações Geográficas (SIG), Modelagem Numérica do Terreno (MNT) e Sensoriamento Remoto através de imagens orbitais. Para isso, são implementados no SIG desenvolvido pelo INPE dados provenientes de cartas topográficas, de mapas temáticos do meio físico e de imagens orbitais LANSAT/TM da região estudada. A partir desses dados iniciais são geradas, também num SIG, outras informações com objetivo de estudar a evolução da área urbana, identificar áreas com suscetibilidade preliminar à erosão laminar, áreas com restrição ao uso urbano e áreas de eventos perigosos e riscos. o trabalho apresenta inicialmente uma revisão bibliográfica sobre a aplicação de Sensoriamento Remoto, Modelagem Numérica do Terreno (MNT) e Sistema de Informações Geográficas (SIG) em estudos urbanos. Segue-se a conceituação e aspectos teóricos dessas três ferramentas básicas utilizadas. A metodologia propriamente dita traz os planos de informações originais e as suas respectivas fontes de informações, os processos de classificação de imagens digitais empregados e os modelos de cruzamentos desenvolvidos para um SIG. A área teste escolhida é a sub-bacia do Arroio Feijó, localizada na região metropolitana de Porto Alegre, na porção centro-leste do Estado do Rio Grande do Sul. A região é caracterizada por uma elevada densidade populacional, pela presença de áreas inundáveis e pela ocorrência de processos eroslVOS. Os resultados mostram que a metodologia proposta é adequada e eficiente para agilizar as atividades de planejamento urbano, subsidiando a elaboração de Planos Diretores de Desenvolvimento Integrado e orientando o crescimento das cidades para regiões mais favoráveis. Além disso, contribui para a prevenção de parcela dos riscos e problemas geotécnicos relacionados ao meio físico nas áreas urbanas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho buscamos evidências, para o caso brasileiro, da Hipótese da Renda Permanente. Primeiro, investigamos a existência de tendências e ciclos comuns entre as séries de consumo e renda per capita. Então, usando o resultado de co-movimentos entre as variáveis decompomos cada série em tendência e ciclo, através dos modelos de componentes não observados de Harvey (1989). Por fim, usando os modelos de vetores autorregressivos, decompomos a variância dos erros de previsão, seguindo a metodologia de Blanchard e Quah (1989), com o objetivo de avaliarmos a importância relativa dos choques permanentes e transitórios para as variações do consumo. Os resultados apontam que as inovações permanentes são responsáveis pela maior parte das variações no consumo. Este resultado embora rejeite a Hipótese da Renda Permanente, indica que o consumo responde pouco a variações transitórias na renda, ou seja, os choques temporários têm pouca importância para o consumo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho discorre sobre o desenvolvimento de uma nova técnica para análise isotópica de Sm-Nd com uso de um traçador combinado de Nd145/Sm149 e de somente a coluna primária, que envolve apenas razões que não requerem correção por interferência isobárica. O trabalho divide-se em duas partes: (i) na primeira parte está apresentado um breve histórico da aplicação da metodologia Sm/Nd e a sua prática rotineira nos laboratórios de geocronologia; (ii) na segunda parte, a nova metodologia Sm/Nd proposta envolvendo calibrações de um traçador combinado de Nd145 e Sm149 e os resultados obtidos nas análises de 3 amostras pré-selecionadas, incluindo uma amostra de referência (BHVO-2) e um teste da validade da técnica de se traçar uma amostra em alíquota. A razão Sm147/Sm149 e as razões de Nd (Nd143/Nd145, Nd143/Nd146 e Nd145/Nd146) nas amostras foram analisadas simultaneamente utilizando um arranjo triplo de filamento (Ta, Re, Ta). A presença de outros ETR não interferiu na eficiência de ionização, sendo as emissões do Sm e do Nd praticamente simultâneas. Esse fato implica que para corrigir o fracionamento observado na razão Sm147/Sm149 pode ser usada a razão Nd143/Nd146 = 0,7101232. A correção de fracionamento, como é empregado no método convencional, reduz os erros nos cálculos das concentrações de Sm e Nd. A razão Nd143/Nd144 normalizada, necessária para idades modelo ou isócrona, é derivada da multiplicação da razão Nd143/Nd145 obtida na amostra natural normalizada para Nd145/Nd146 = 0,482620 por um fator constante de 0,348404. Esse valor de normalização estabelecido é baseado em 45 análises independentes em duas amostras de referência laboratorial (SPEX e Johnson Mattey) obtidas no modo dinâmico de análise utilizando um espectrômetro de massa da VG Sector equipado com 9 coletores A razão Nd143/Nd144 calculada e a idade modelo TDM são plenamente concordantes quando comparadas aos valores obtidos pelo método convencional. Algumas restrições podem surgir quando os valores de Sm e Nd obtidos nas alíquotas forem comparados com os resultados obtidos da amostra total. Pequenas discrepâncias, provavelmente atribuíveis à não homogeneização da solução final, podem ser irrelevantes, uma vez que as razões Sm147/Nd144 e Nd143/N144d derivada estão dentro dos erros experimentais (2s). Para laboratórios de geocronologia com um espectrômetro de massa equipado com pelo menos 5 coletores e com o método Rb/Sr implementado, a nova metodologia proposta para o método Sm/Nd constitui-se em uma alternativa de aplicação quase imediata, desde que a solução de traçador combinado Nd145 e Sm149 esteja bem calibrada e a coluna de resina catiônica tenha resolução adequada para eficiente separação dos elementos terras raras.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho traz interessantes descobertas acerca do comportamento dos preços das ações no mercado acionário brasileiro. Utilizando a metodologia de Haugen e Baker (1996) e seu Modelo de Fator de Retorno Esperado, o estudo mostra que são cinco os fatores determinantes dos preços das ações no mercado brasileiro, considerando o período de janeiro de 1995 a julho de 2003. Dentre os fatores, dois foram obtidos a partir do comportamento dos preços passados das ações, o que evidencia que o mercado não é eficiente nem em sua forma fraca, conforme os conceitos apresentados por Fama (1970). Além disso, fatores como o beta do CAPM e os betas da APT, os principais modelos de precificação de ativos, não foram incluídos entre os fatores determinantes. A aplicação dos fatores determinantes em duas simulações de investimento, uma sem custos de transação e outra com custos de transação, mostrou que o Modelo de Fator de Retorno Esperado possui boa eficiência na previsão dos retornos das ações, sendo capaz de construir, entre 10 carteiras, aquela com maior retorno em relação às demais e, inclusive, em relação ao principal índice de mercado brasileiro, o Ibovespa. A Carteira 1, com melhor retorno esperado, apresentou retorno médio mensal de 1,78% na simulação sem custos de transação e de 0,46% na simulação com custos de transação, ambos superiores ao retorno médio mensal do Ibovespa, de -0,45%. Além da melhor performance, a análise do perfil dos portfolios apontou resultados também relevantes, especialmente no que concerne ao risco das carteiras. A Carteira 1 apresentou a menor volatilidade dos retornos mensais, o menor beta de mercado, bem como mostrou ser formada por ações de empresas com o menor grau de endividamento do patrimônio líquido.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

No desenvolvimento das condições ótimas para a avaliação da viabilidade, através da determinação de métodos eficientes na condução dos testes de germinação e de tetrazólio, e do vigor, através do estudo das variáveis que influenciam a realização dos testes de condutividade elétrica e de envelhecimento acelerado, foram utilizadas sementes forrageiras nativas das gramíneas Paspalum dilatatum Poir., P. lividum Trin. ex Schltdl., P. nicorae Parodi, P. notatum Flügge, P. pauciciliatum Parodi Herter, P. plicatulum Michx., P. pumilum Ness, P. regnellii Mez, P. urvillei Steud e das leguminosas Desmodium incanum DC., Trifolium riograndense Burkart, Adesmia latifolia (Spreng.) Vogel. e Desmanthus depressus Humb. & Bonpl. ex Willd. Os trabalhos foram desenvolvidos no Laboratório de Análise de Sementes do Departamento de Plantas Forrageiras e Agrometeorologia da Faculdade de Agronomia/Universidade Federal do Rio Grande do Sul. Os dados em porcentagem de germinação foram transformados em arco-seno√x/100. As médias foram comparadas pelo Teste de Tukey (P<0,05), de Dunnett (P<0,05) e análise de regressão. O delineamento experimental foi o completamente casualizado, com quatro repetições de 25 sementes cada. As condições adequadas de germinação, tipo de substrato, posição e temperatura utilizada, variaram conforme a espécie, mas de um modo geral as sementes de leguminosas mostraram bons resultados sobre substrato papel e em temperaturas alternadas. Nas gramíneas do gênero Paspalum, a condição papel, a posição sobre o substrato e as temperaturas constantes de 20 e 25°C e a alternada de 20-35°C destacaram-se das demais, para a maioria das espécies. A temperatura alta (40°C), o maior período de embebição (24 horas) e a concentração de 0,5%, de uma forma geral, apresentaram-se como as condições mais adequadas para condução do teste de tetrazólio nas espécies trabalhadas. A combinação 24 horas/25°C, para grande parte das leguminosas e gramíneas em questão, levou a uma liberação maior de lixiviados na realização do teste de condutividade elétrica. As condições de temperatura de 45°C e o período de exposição de 96 horas, de modo geral, afetaram de forma mais drástica a porcentagem média de germinação das sementes após o envelhecimento acelerado nas espécies estudadas.