39 resultados para incerteza
em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul
Resumo:
A teoria da utilidade esperada (EU) é a teoria da decisão mais influente já desenvolvida. A EU é o core da teoria econômica sob incerteza, presente na maior parte dos modelos econômicos que modelam situações de incerteza. Porém, nas últimas três décadas, as evidências experimentais têm levantado sérias dúvidas quanto à capacidade preditiva da EU – gerando grandes controvérsias e uma vasta literatura dedicada a analisar e testar suas propriedades e implicações. Além disso, várias teorias alternativas (teorias não-EU, geralmente, generalizações da EU) têm sido propostas. O objetivo deste trabalho é analisar e avaliar a teoria da utilidade esperada (objetiva) através de uma revisão da literatura, incorporando os principais conceitos desenvolvidos ao longo do tempo. Além disso, este trabalho desenvolve algumas análises originais sobre representação gráfica e propriedades da teoria da utilidade esperada. O trabalho adota uma perspectiva histórica como fio condutor e utiliza uma representação da incerteza em termos de loterias (distribuições de probabilidade discretas). Em linhas gerais, o roteiro de análise do trabalho é o seguinte: princípio da expectância matemática; Bernoulli e a origem da EU; teoria da utilidade sem incerteza; axiomatização da EU; representação gráfica e propriedades da EU; comportamento frente ao risco; medidas de aversão ao risco; dominância estocástica; paradoxos da EU e a reação dos especialistas frente aos paradoxos A conclusão é que existem fortes evidências experimentais de que a EU é sistematicamente violada. Porém, a existência de violações não foi ainda suficientemente testada em experimentos que permitam o aprendizado (tal como pode ocorrer em situações de mercado), onde existe a possibilidade de que as preferências evoluam e que haja uma convergência de comportamento para a EU (ainda que esta possibilidade não se aplique a situações singulares ou que ocorram com pouca freqüência). É possível que testes deste tipo venham a confirmar, em maior ou menor grau, as violações da EU. Mas mesmo que isto ocorra, não significa que a EU não seja útil ou que deva ser abandonada. Em primeiro lugar, porque a EU representou um grande avanço em relação ao princípio da expectância matemática, seu antecessor. Em segundo lugar, porque a EU implica em uma série de propriedades analiticamente convenientes, gerando instrumentos de análise bastante simples (de fato, permitiu a explicação de numerosos fenômenos econômicos), contrastando com a maior complexidade envolvida com o uso das teorias não-EU. Neste cenário, faz mais sentido pensar na EU sendo eventualmente complementada por teorias não-EU do que, sendo abandonada.
Resumo:
Quantificação de incerteza e risco tem aplicação direta no projeto de limites de cava e na programação de produção. Pequenas variações nas condições de contorno de um projeto podem ter impacto significativo sobre o retorno final do mesmo na ordem de milhões de dólares. Preço de mercado do bem mineral, o custo de capital, taxas de atratividade, etc, são fatores usualmente testados para analisar a viabilidade de um empreendimento, porém, raramente é considerada a incerteza relacionada ao atributo geológico em questão. O propósito de um planejamento de lavra tem sido prover subsidio para o engenheiro de minas decidir sobre a capacidade de minerar determinadas unidades de lavra do depósito a partir de teores estimados. Salienta-se porém que existe, a partir dos dados amostrais, incertezas a respeito do modelo geológico que devem ser consideradas ao se projetar uma cava e desenvolver a lavra. A simulação geoestatistica tem a capacidade de produzir múltiplos modelos equiprováveis, os quais podem ser avaliados independentementecomo possíveis cenários do depósito mineral. Simulação condicional, ao contrário de técnicas de interpolação e estimativa, provê respostas para questões associadas a risco devido à variações nos teores do modelo geológico. Ao gerar múltiplos cenários tem-se acesso à probabilidade e conseqüentemente às variações de retorno financeiro e rotas de extração de minério de um projeto. o presente trabalho tem como objetivo a investigação de novas metodologias que contribuam para a construção de cenários de planejamento de lavra e avaliação do impacto provocado nestes pela incerteza fornecida a partir de modelos simulados. As respostas buscadas dentro da abordagem sugerida por esse trabalho, compreendem a definição de uma metodologia para controle e planejamento de lavra a médio e longo prazo por incorporação da flutuabilidade local associada ao minério, avaliando a sensibilidade do retorno financeiro e o traçado de lavra em relação ao método de geração do modelo geológico de teores. Para solucionar o problema em questão, sugere-se a geração de modelos estocásticos e a alimentação de múltiplos modelos selecionados por critérios considerados relevantes para a delimitação do espaço de incerteza. A aplicação de funções de transferência tais como mudança de suporte e seqüenciamento de produção sobre os modelos simulados é a chave para a obtenção de respostas a respeito do impacto sobre a lucratividade de um projeto. Ao alimentar à essas funções modelos equiprováveis que preservam as características estatísticas e a conectividade espacial dos dados amostrais mas que invariavelmente possuem diferentes distribuições de teores tem-se a dimensão em termos econômicos do risco associado à incerteza geológica. Foi confrontado o retorno financeiro produzido por modelos simulados e verificou-se para o caso especifico que os métodos de simulação geoestatistica empregados não produziram diferenças significativas quando comparados casos selecionados segundo os mesmos critérios. Porém, entre cenários extremos gerados pelo mesmo algoritmo de simulação foram verificadas desigualdades relevantes. Verificou-se também a transferência de minério entre diferentes classes de qualidade ao proceder-se com variações nas dimensões dos blocos de lavra.
Resumo:
O objetivo deste trabalho é apresentar um modelo eficiente de representação de conhecimento que é construído a partir de relações de causa e efeito entre percepções e ações. Assume-se que é possível perceber o ambiente, é necessário fazer decisões mediante incerteza, é possível perceber a realimentação (feedback) referente ao sucesso ou fracasso das ações escolhidas, e é possível aprender com a experiência. Nós descrevemos uma arquitetura que integra o processo de percepção do ambiente, detecção de contexto, tomada de decisão e aprendizagem, visando obter a sinergia necessária para lidar com as dificuldades relacionadas. Além da descrição da arquitetura, é apresentada de forma sucinta uma metodologia chamada Computação Contextual, composta por duas fases principais: Definição e Operação. A fase de Definição envolve o projeto e modelagem de: i) Os subespaços de conhecimento conceitual e canônico; e ii) As regras de crescimento dinâmico. A fase de Operação complementa (isto é, estende e adapta) as definições iniciais através da aprendizagem feita pela interação com o ambiente.
Resumo:
Resumo não disponível.
Resumo:
A modelagem de um depósito mineral é realizada por meio da combinação de diversas fontes de informações. Dentre estas fontes pode-se citar a sísmica de reflexão. A sísmica de reflexão fornece dados de tempos de propagação de ondas sísmicas até essas serem refletidas pelas estruturas dos depósitos minerais. As profundidades dessas estruturas podem ser obtidas multiplicando-se os tempos pelas velocidades de propagação das ondas sísmicas. Normalmente, a velocidade de uma onda sísmica é determinada indiretamente por meio do processamento dos próprios dados sísmicos, o que pode gerar erros na interpretação de seções geológicas. A perfilagem geofísica é uma alternativa na determinação dessa velocidade, uma vez que a velocidade de onda acústica é obtida ao longo do furo perfilado e a velocidade de onda acústica pode ser relacionada com a velocidade de onda sísmica. As estimativas de valores de velocidade na região entre os furos perfilados permite as estimativas de valores de profundidade nessa região. Neste estudo, foram analisadas possibilidades de se estimar, em um grid, valores de velocidade e incertezas associadas a esses valores, utilizando-se ferramentas geoestatísticas. A simulação seqüencial Gaussiana, dentre as ferramentas analisadas, pareceu ser a mais adequada para obtenção de velocidades e incerteza dos valores estimados em cada nó do grid considerado. Para o caso abordado, alguns valores de profundidade da estrutura de interesse apresentaram variações significativas em função da incerteza de velocidade. Essas variações são muito importantes na execução de certos métodos de lavra subterrânea, o que enfatiza a importância da determinação da incerteza das velocidades estimadas. A metodologia é apresentada e ilustrada em um importante depósito de carvão em Queensland, Austrália.
Resumo:
O estudo trata dos riscos e incertezas que cercam as avaliações econômicas de empresas, tomando por base a exagerada alta das cotações das ações das empresas de Internet, verificada na NASDAQ entre 1998 e 2000. Expõem-se os principais métodos de avaliação econômica, incorporando conceitos de custo do capital e do risco a ele associado, as características econômicas das empresas de Internet, as peculiaridades e barreiras à avaliação destas e, ainda, um panorama da bolha da NASDAQ, ocorrida no período mencionado. Finalmente, é trazido à análise o comportamento do investidor diante da incerteza e os modelos de cascatas de informação, sugerindo-se que a corrida às ações das empresas de Internet tenha sido desencadeada ou influenciada pelas chamadas extemalidades de manada.
Resumo:
O presente estudo teve como objetivo principal analisar a influência das incertezas legais, mercadológicas e tecnológicas no desenvolvimento de pesquisas com Organismos Geneticamente Modificados aplicados à agricultura no Brasil. Para tanto foi realizado um estudo multicasos em oito centros de P&D (4 públicos e 4 privados) de caráter qualitativo e exploratório. Para a realização dos estudos de casos foram realizadas entrevistas não-estruturadas (no período de agosto a outubro de 2005) com representantes de cada uma das empresas selecionadas, tendo como base um protocolo de pesquisa. Também foram coletados dados secundários de diferentes fontes. Observou-se que, apesar da polêmica instaurada em torno dos OGMs, as pesquisas e o plantio comercial vem avançando de forma significativa no Brasil e no mundo. Apesar desta expansão, percebeu-se que a incerteza legal, mercadológica e tecnológica vêm influenciando as decisões de pesquisa nos centros de P&D. A incerteza legal, observada principalmente pelo excesso de burocracia na aprovação dos pedidos e a lentidão na regulamentação da lei 11.105 de março de 2005, levou muitos centros de P&D a abortar ou adiar projetos de pesquisa. A incerteza mercadológica, observada principalmente pela resistência da população em aceitar a nova tecnologia tem levado a uma maior cautela por parte dos centros de P&D no momento das decisões de investimentos. A incerteza tecnológica, observada pelas possibilidades de conflitos de patentes e disputas entre empresas, é identificada como a menos impactante no processo de decisão de pesquisa. Estas incertezas têm levado os centros de P&D a ficarem mais atentos aos movimentos do ambiente institucional e a buscarem novas capacitações na busca por uma vantagem competitiva sustentável no mercado. Observou-se também que o enfoque das teorias evolucionária e institucional, juntamente com abordagem teórica de incertezas, foram fundamentais para o entendimento da influência das incertezas no processo de pesquisa com OGMs nos centros de P&D analisados.
Resumo:
A complexidade das ações no plano decisório da Gestão das Águas e a necessidade do atendimento simultâneo das exigências que visam à obtenção do desenvolvimento sustentável, impõem uma abordagem multiobjetivo. O uso múltiplo das águas, o caráter multidisciplinar e subjetivo dos agentes envolvidos no processo, a aleatoriedade dos eventos hidrológicos, a incerteza dos processos econômicos, sociais e ambientais, a necessária consideração de aspectos de difícil mensuração, como o bem estar social, a preservação do ambiente e as questões culturais e estéticas, além da tradicional eficiência econômica, caracterizam o contexto presente. Este trabalho apresenta, descreve e compara algumas técnicas de análise multiobjetivo como importante meio de apoio à tomada de decisões diante dos problemas de Gestão das Águas. Três métodos são aplicados e comparados em um estudo de caso, para suporte à decisão em um Comitê de Gerenciamento, tendo como objetivo estratégico o desenvolvimento sustentável em uma Bacia Hidrográfica, com um cenário configurado a partir da experiência acumulada na última década no Rio Grande do Sul e à luz da legislação vigente para a Política de Recursos Hídricos. Na análise desenvolvida através dos métodos ELECTRE I e II, Programação de Compromisso e Analítico Hierárquico, consideram-se a participação de múltiplos decisores, a questão da subjetividade e o reconhecimento da incerteza como inerente ao processo.
Resumo:
Este estudo testou a existência do efeito clientela no cenário brasileiro, verificando se o preço das ações que pagaram dividendos durante os anos de 1996 a 1998 comportou-se conforme o modelo de Elton e Gruber (1970). Além disso, verificou a existência de alguma anormalidade no retomo das ações no primeiro dia ex-dividend. Em relação ao modelo de Elton e Gruber, dos 620 eventos analisados, em apenas quatro casos, o valor da ação no 10 dia após o pagamento do dividendo situou-se dentro do intervalo teórico esperado. Trinta por cento dos eventos apresentaram um resultado surpreendente, em que o preço da ação no primeiro dia ex-dividend foi maior do que na data em que a ação tinha direito de receber dividendos. Essas constatações contrariam as expectativas do modelo, e esse comportamento pode ser considerado irracional, já que se estaria pagando mais por uma ação sem direito a dividendos, do que quando esta tinha direito a recebê-lo. O cálculo dos retornos anormais evidenciou um retomo anormal médio positivo no primeiro dia exdividend de 5,2% para a amostra total e de 2,4% para a amostra sem outliers. Além disso, constataram-se retornos anormais significativos a 5% e 1% em outros dias da janela do evento, o que demonstra o comportamento anormal do mercado desses papéis nesse período. O retomo anormal cumulativo (CAR) apresentou um retomo residual de 5% no 50 dia ex-dividend para a amostra total e 2% após a exclusão dos outliers, o que significa que as empresas que distribuíram dividendos obtiveram um retomo anormal no preço de suas ações durante a janela do evento. Verificou-se, ainda, uma relação diretamente proporcional entre o yield da ação e os resultados anormais encontrados em ambas as hipóteses. Isso se deve à redução de incerteza e à minimização do risco do investidor. As empresas que optaram por pagar altos dividendos em valores absolutos e yields elevados para as suas ações apresentaram retornos anormais médios superiores aos demais. Enfim, os resultados encontrados não identificaram evidências de efeito clientela no mercado acionário brasileiro. Pode-se dizer que a formação de preços das ações que distribuem dividendos no Brasil está bem mais relacionada à minimização da incerteza do investidor do que influenciada pela interferência tributária nos mesmos.
Resumo:
Nas últimas décadas,o interesse pelo gerenciamento do valor tem aumentado no setor da construção. Neste contexto,a geração de valor pode ser compreendida como o atendimento dos requisitos do cliente final.Tal atendimento, por sua vez, depende de como os requisitos são priorizados e comunicados para a equipe de projeto ao longo do processo de desenvolvimento do produto. O objetivo desta dissertação consiste em propor um conjunto de diretrizes para o gerenciamento dos requisitos do cliente no processo de desenvolvimento do produto edificio, de forma a estabelecer meios para capturar requisitos e controlar seu fluxo,em empreendimentos da construção. O método de pesquisa foi dividido em três etapas. Inicialmente foi realizada uma revisão bibliográfica. Em seguida, foi desenvolvido um estudo de caso em uma empresa que realiza empreendimentos habitacionais, o qual resultou em uma proposta inicial de diretrizes para a gestão dos requisitos do cliente, enfatizando contexto deste tipo de empreendimento. A terceira etapa envolveu a realização de um segundo estudo de caso em um empreendimento industrial realizado por uma empresa que atua com obras complexas, de curto prazo e com elevado grau de incerteza. Este estudo possibilitou um segundo ciclo de aprendizagem, resultando no conjunto final de diretrizes para a gestão dos requisitos do cliente, considerando também empreendimentos de obras industriais de execução rápida Ambos os estudos de caso envolveram otrabalho de equipes multidisciplinares durante o processo de desenvolvimentodo produto. Estas equipes incluíram ambas profissionais das construtoras envolvidas,bem como, projetistas, consultores, empreiteiros e representantes do cliente. As respectivas equipes realizaram diversas tarefas ao longo do empreendimento, tais como identificar o objetivo do empreendimento, planejar e controlar o processo de desenvolvimento do produto, formular um programa de necessidades tão completo quanto possível e considerar os requisitos do sistema de produção nas fases iniciais do processo de desenvolvimento do produto. As principais conclusões desta pesquisa estão relacionadas à introdução de uma sistemática para gerenciamento dos requisitos do cliente no desenvolvimento do produto e à aplicação de ferramentas para coletar dados e apoiar a tomada de decisão. Constatou-se que o uso de ferramentas relativamente simples para realizar a captura e controle do fluxo de requisitos do cliente teve um efeito positivo no processo de desenvolvimento do produto. O estudo também indicou a necessidadede realizar a gestão dos requisitos do cliente desde as fases iniciais de concepção dos empreendimentos da construção. Além disso, o estudo resultou em contribuições conceituais para a consolidação do conhecimento da natureza do processo de projeto, no que se refere à geração de valor.
Resumo:
O processo produtivo das organizações hospitalares necessita acompanhar as exigências estabelecidas pelos novos paradigmas da sociedade. Frente a esse desafio e considerando a complexidade dessas organizações, torna-se fundamental o uso de sistemas de informações que consigam reduzir o nível de incerteza dos processos decisórios. Este trabalho tem como objetivo aperfeiçoar a função de controle da gestão hospitalar, através da aplicação do método de custeio baseado em atividades, ou ABC (Activity-Based Costing), que busca melhor compreender o processo produtivo, para avaliar e custear, dando subsídios para a melhoria da eficiência econômica. Foram acompanhados pacientes internados com câncer de esôfago da especialidade de Cirurgia Geral de um hospital universitário. O desenvolvimento contou com a análise dos processos, identificação dos recursos envolvidos, direcionadores primários e secundários, que permitiram a apuração do custo por paciente e a análise de valor agregado (AVA). Do processo de internação, o estudo identificou 9 subprocessos (Admissão, Anamnese e Exame Físico, Prescrição pré-cirúrgica, Prescrição pós-cirúrgica, Diagnóstico, Reavaliação médica, Operação Cirúrgica, Prescrição de alta e Suporte ao 18 leito). Para cada subprocesso, avaliaram-se quais recursos da estrutura do hospital foram empregados, de forma a quantificar a participação de cada um nos respectivos subprocessos, através dos direcionadores primários. Definidos os recursos e sua participação, a fase seguinte foi verificar em que medida os recursos foram empregados pelas atividades durante o atendimento ao paciente. A partir da análise de processos, as atividades foram identificadas, sendo estabelecido um indicador que mensurasse o uso da atividade pelo paciente, os direcionadores secundários. Os resultados indicam que o ABC oferece níveis de detalhamento do processo de prestação de serviço hospitalar mais elevados do que nos sistemas tradicionais de custos e consegue perceber melhor o uso dos recursos durante o atendimento, em conseqüência, auferindo o custo de cada paciente com maior precisão. Além disso, permite a análise de valor agregado de todo o processo produtivo, auxiliando a organização a atingir os objetivos e permitindo enfrentar em melhores condições as alterações no ambiente interno e externo. Na medicina é dito que cada paciente é um caso, porque, ainda que a ciência tenha avançado muito nos últimos anos, as características pessoais e as reações a cada ação médica encontram uma variabilidade muito grande. No ABC, cada paciente passa a ser um objeto de custo, que absorverá os recursos necessários à conduta a ser seguida, permitindo melhor avaliar e controlar o desempenho do processo produtivo e auxiliando no processo decisório.
Resumo:
Sistemas de previsão de cheias podem ser adequadamente utilizados quando o alcance é suficiente, em comparação com o tempo necessário para ações preventivas ou corretivas. Além disso, são fundamentalmente importantes a confiabilidade e a precisão das previsões. Previsões de níveis de inundação são sempre aproximações, e intervalos de confiança não são sempre aplicáveis, especialmente com graus de incerteza altos, o que produz intervalos de confiança muito grandes. Estes intervalos são problemáticos, em presença de níveis fluviais muito altos ou muito baixos. Neste estudo, previsões de níveis de cheia são efetuadas, tanto na forma numérica tradicional quanto na forma de categorias, para as quais utiliza-se um sistema especialista baseado em regras e inferências difusas. Metodologias e procedimentos computacionais para aprendizado, simulação e consulta são idealizados, e então desenvolvidos sob forma de um aplicativo (SELF – Sistema Especialista com uso de Lógica “Fuzzy”), com objetivo de pesquisa e operação. As comparações, com base nos aspectos de utilização para a previsão, de sistemas especialistas difusos e modelos empíricos lineares, revelam forte analogia, apesar das diferenças teóricas fundamentais existentes. As metodologias são aplicadas para previsão na bacia do rio Camaquã (15543 km2), para alcances entre 10 e 48 horas. Dificuldades práticas à aplicação são identificadas, resultando em soluções as quais constituem-se em avanços do conhecimento e da técnica. Previsões, tanto na forma numérica quanto categorizada são executadas com sucesso, com uso dos novos recursos. As avaliações e comparações das previsões são feitas utilizandose um novo grupo de estatísticas, derivadas das freqüências simultâneas de ocorrência de valores observados e preditos na mesma categoria, durante a simulação. Os efeitos da variação da densidade da rede são analisados, verificando-se que sistemas de previsão pluvio-hidrométrica em tempo atual são possíveis, mesmo com pequeno número de postos de aquisição de dados de chuva, para previsões sob forma de categorias difusas.
Resumo:
Novas centrais térmicas utilizam carvão ROM (Run of mine) na sua alimentação. Sem o processamento do minério as flutuações de qualidade do carvão serão transferidas da mina para o consumidor final. Freqüentemente, contratos entre produtor-consumidor estabelecem limites pré-estabelecidos de parâmetros geológicos e tecnológicos como enxofre, cinzas e poder calorífico. Lotes de minério com qualidade fora dos limites estabelecidos podem ser rejeitados ou penalizados. O custo elevado dessas penalizações recomenda a homogeneização do minério ROM. As principais estratégias de homogeneização são as baseadas em técnicas geoestatísticas, as pilhas de homogeneização e as usinas de beneficiamento ou metalúrgicas. A estratégia de homogeneização baseada em técnicas geoestatísticas apresenta os menores custos de implementação, no entanto o conhecimento do depósito deverá ser fundamental. Tradicionalmente, essa estratégia de homogeneização utiliza um modelo de blocos gerado por um estimador tradicional, geralmente krigagem ordinária. A estimativa dos blocos por krigagem não considera a incerteza associada ao modelo geológico, não sendo adequada para prever flutuações locais Diferente da krigagem, os métodos de simulação geoestatística têm como objetivo reproduzir a variabilidade in situ e a continuidade espacial dos dados originais. Uma vez que os teores e sua variabilidade são estimados, flutuações da qualidade do minério podem ser previstas para determinada rota de lavra e certo tamanho de lote entregue ao consumidor. Diferentes tamanhos de lote são testados a fim de obter-se o controle das flutuações da qualidade do minério. Este trabalho apresenta um procedimento para acessar a variabilidade dos teores e predizer a sua flutuabilidade para diferentes tamanhos de lote em um estudo de mineração subterrânea de carvão no sul do Brasil. Simulação geoestatística e planejamento de lavra apropriado proporcionam uma solução para o problema de homogeneização de minérios.
Resumo:
Apesar da grande evolução, a questão da precificação de ativos encontra-se ainda cercada de incertezas e indefinições quanto à forma como esta deve ser feita. A incerteza por parte dos investidores em relação aos resultados a serem obtidos em suas aplicações no mercado financeiro gera forte demanda por modelos mais precisos quanto à capacidade de quantificação do retorno esperado. Este trabalho procura, em uma análise preliminar, estudar, utilizando o tratamento estatístico de regressão múltipla, os fatores explicativos dos retornos diferenciais das ações na Bolsa de Valores de São Paulo (Bovespa) no período de janeiro de 1995 a dezembro de 1999. Em seguida, visa-se analisar, através de um teste comparativo de desempenho envolvendo simulação de investimentos em portfolios de ações, a capacidade do Modelo de Fator de Retorno Esperado de Haugen e Baker (1996) e da APT (Arbitrage Pricing Theory) de Ross (1976) em prognosticar os retornos das 70 ações incluídas na amostra. Por fim, levanta-se o perfil de risco e liquidez dos portfolios selecionados pelos modelos a fim de verificar a relação risco-retorno. Os resultados apontaram sete fatores capazes de explicar o retorno diferencial mensal das ações. Contrapondo-se aos pressupostos teóricos, nenhum fator de risco inseriu-se no grupo de fatores selecionados. Já os fatores que apresentaram significância estatística em suas médias, dois inserem-se no grupo liquidez, três referem-se aos parâmetros de valor das ações e dois estão relacionados ao histórico de preços das ações. Comparando os resultados obtidos pelos modelos inseridos neste estudo, conclui-se que o Modelo de Fator de Retorno Esperado é mais eficiente na tarefa de predizer os retornos futuros das ações componentes da amostra. Este, além de ter alcançado uma média de retornos mensais superior, foi capaz de sustentar retorno acumulado superior ao da APT durante todo o período de teste (jan/2000 a dez/2002). Adicionalmente, o uso deste modelo permitiu selecionar portfolios com um perfil de menor risco.