943 resultados para Teste de aptidão criativa
Resumo:
Analisa a técnica discussões em grupo e a sua utilização no pré-teste de peças de propaganda. Esta técnica é analisada a partir da perspectiva da Pesquisa de Mercado, enquanto ferramenta de Marketing, abordando como referencial teórico: o processo de comunicação, a propaganda e a pesquisa de mercado. Apresenta resultados de pesquisa realizada com profissionais da área de pesquisa mercadológica
Resumo:
Utiliza a técnica de simulação para estimar a "eficiência" de se testar o modelo Capital Asset Pricing Model (CAPM) num mercado com características do mercado acionário paulista, marcado por elevado retorno e alta volatilidade.
Resumo:
A elaboração de diagnósticos e a tomada de decisões sobre o meio físico, com a finalidade de estabelecer diretrizes para a ocupação racional do solo, são cada vez mais prementes, especialmente, no que diz respeito ao direcionamento da expansão urbana para áreas mais favoráveis. Da mesma forma, a facilidade de acesso aos parâmetros geotécnicos de uma região constituí um inestimável recurso nas etapas preliminares dos projetos de Engenharia, no planejamento de atividades extrativas e nos programas de preservação ambiental. A cartografia geotécnica, nesse sentido, tem sido um dos instrumentos mais eficientes para a avaliação do meio físico nas últimas décadas. Entretanto, o desenvolvimento de um mapa geotécnico requer a análise de um grande número de informações que precisam ser tratadas e combinadas com rapidez. Esta tese apresenta uma metodologia para a integração de dados, por meio da ferramenta básica geoprocessamento, visando agilizar, na fase de escritório, a elaboração de mapas geotécnicos e a análise de determinados aspectos do meio físico sob o ponto de vista da Geotecnia, bem como suas interações com a mancha urbana existente. A área teste escolhida é o município de Porto Alegre (RS) situado na porção leste do estado do Rio Grande do Sul, à margem esquerda do Lago Guaiba, cuja paisagem é marcada pela diversidade de cenários naturais formados por terrenos de coxilhas, morros, cristas, lagos e planícies. A metodologia envolve a captura, o processamento e a integração de informações provenientes de fontes diversas como mapas temáticos, levantamento aerofotogramétrico, cartas topográficas, fotografias aéreas, imagens de satélite, boletins de sondagens SPT (Standart Penetration Test), dissertações e teses acadêmicas. Para isso, é constituída por nove etapas distintas, que utilizam: a) sistema de digitalização para a conversão de informações analógicas para o meio digital; b) modelagem digital do terreno (MDT) para o modelamento e a identificação do relevo, a determinação de declividades, o mapeamento de áreas com isodeclividades e o cálculo do fator topográfico, esse último objetivando a determinação da suscetibilidade à erosão laminar; c) técnicas de processamento e classificação de imagens orbitais para os mapeamentos das áreas inundáveis e da mancha urbana; d) Sistemas de Informações Geográficas (SIGs) para o processamento e a integração de informações georreferenciadas no computador; e) banco de dados digital para o armazenamento de dados descritivos sobre o meio físico e parâmetros geotécnicos obtidos em laboratório, sondagens e outras formas de investigação in situ. A estimativa das unidades geotécnicas é procedida com base na proposta metodológica para mapeamento geotécnico desenvolvida por Davison Dias (1995), na Universidade Federal do Rio Grande do Sul (UFRGS). Além da elaboração do mapa geotécnico, a metodologia propõe a análise e o cruzamento de vários fatores do meio físico com a mancha urbana existente, ou com uma subárea pertencente à região de estudo, a geração de mapas de aptidão do solo para diferentes usos e a identificação das áreas consideradas de eventos perigosos e de risco geológico. Os principais softwares empregados são o AutoCAD@, o SURFER@, ACESS@ e o IDRISI 2.0@, desenvolvido pela Clark University, USA. Os resultados obtidos a partir da implementação da metodologia demonstraram a importância e a contribuição que a ferramenta básica geoprocessamento pode trazer aos estudos geotécnicos. Os diferentes sistemas de geoprocessamento utilizados para a manipulação e tratamento das informações espaciais mostraram-se adequados e eficientes quando aplicados na coleta, processamento e integração de dados geotécnicos. Para a área teste foram identificadas trinta e sete unidades com perfis de solos com comportamento geotécnico praticamente similar frente ao uso e à ocupação do solo, cujas informações descritivas sobre o meio físico puderam ser facilmente acessadas e visualizadas, no computador, por meio da integração banco de dados geotécnicos com Sistema de Informações Geográficas. Por outro lado, o emprego de técnicas de processamento e classificação de imagens digitais revelou-se um recurso importante para a obtenção de informações sobre o meio físico, enquanto o uso de modelagem digital do terreno (MDT) agilizou o mapeamento das declividades e o cálculo da suscetibilidade potencial à erosão laminar, além de permitir a geração do relevo em perspectiva da região estudada.
Resumo:
Esta dissertação tem dois objetivos: (i) propor um novo teste para verificar a existência de hysteresis em comércio exterior; (ii) aplicá-lo para o Brasil e analisar o comportamento recente do setor externo deste país à luz desta teoria. O teste sugerido envolve duas etapas. A primeira é a de delimitação da zona de inação ao longo do tempo, utilizando calibrações para o modelo de Dixit (1989, 1994) combinadas com uma aplicação de um modelo de Estado-Espaço de coeficientes variando no tempo para estimar o movimento browniano da taxa de câmbio real com parâmetros variáveis no tempo. Esta etapa nos permitirá identificar, de acordo com a teoria de hysteresis, quando a taxa de câmbio real ultrapassou os limiares da zona de inação. A segunda etapa consiste em utilizar estes resultados, juntamente com a metodologia de análise de cointegração com quebra estrutural proposto por Johansen et al. (2000), para testar a hipótese de que variações temporárias no câmbio, desde que sejam suficientemente grandes para ultrapassar os limiares da zona de inação, afetam permanentemente as exportações. Os resultados encontrados não apresentaram evidências fortes de hysteresis para o volume total das exportações brasileiras, mas sugeriram que há alguma evidência de hysteresis para o volume das exportações de produtos manufaturados.
Resumo:
O objetivo deste trabalho é caracterizar o padrão de concorrência no mercado de leite fluido (longa vida e pasteurizado) na cidade de São Paulo a partir de evidências sobre os movimentos de preços no varejo e do comportamento das margens de mercado. Utilizou-se o modelo originalmente proposto por Houck (1977) acrescido das observações feitas por Carman e Sexton (2005). Essa abordagem separa as variáveis explicativas entre aumentos e diminuições de preços pagos ao produtor. Além de maior clareza na sua estrutura, essa construção permite comparar a defasagem entre esses dois movimentos e estudar a estratégia de preços dos agentes a partir das margens dos intermediários. O período analisado foi de dezembro de 1999 à dezembro de 2005, com dados de preços ao consumidor da FIPE e dados de preços ao produtor da CEPEA/ USP. Identificou-se que o padrão de concorrência do leite longa vida é bastante diverso do encontrado para o leite pasteurizado. Enquanto para o longa vida o padrão de concorrência é mais próximo do modelo competitivo, para o leite pasteurizado o padrão encontrado foi de pouca concorrência. Para compreender essas diferenças, foi discutido o aspecto locacional do varejo e a importância do mercado relevante geográfico. Os resultados permitem algumas inferências para análises setoriais e de políticas públicas voltadas à produção leiteira. O vertiginoso crescimento das vendas de leite longa vida, absorvendo grande parte do mercado antes abastecido pelo leite pasteurizado, trouxe maior concorrência nos segmentos de indústria e distribuição, assim como maior velocidade de transmissão de preços ao longo da cadeia produtiva. Entretanto, a precificação com markups com percentual fixo, observada no leite longa vida, indica que indústria e distribuição gozam de algum poder de mercado e que variações de custo da matéria-prima são repassadas mais que proporcionalmente, em termos absolutos, ao consumidor final.
Resumo:
Introdução: A presente dissertação de mestrado tem como foco a investigação de qualidade de vida em idosos. Não somente à expectativa de vida e à morbi-mortalidade, o interesse científico tem-se voltado a conferir qualidade aos anos de vida de uma população de idosos crescente em países desenvolvidos e em desenvolvimento. A definição do construto qualidade de vida não desfruta de consenso até o momento. Entretanto, é consensual que a população de idosos apresenta particularidades que, por conseguinte, se refletem na conceituação de qualidade de vida e na determinação de quais fatores contribuem para sua composição. Entretanto, diversos instrumentos utilizados em estudos de qualidade de vida em idosos não abrangem tais especificidades ou não apresentam propriedades psicométricas adequadamente testadas para esta população. Objetivos: Os objetivos principais desta dissertação são dois. Primeiramente, desenvolver a versão em português do módulo de aferição de qualidade de vida em idosos da Organização Mundial de Saúde WHOQOL-OLD e descrever suas propriedades psicométricas em uma amostra de idosos brasileiros. Em segundo lugar, realizar a testagem do desempenho psicométrico do instrumento genérico de avaliação de qualidade de vida WHOQOL-BREF, originalmente gerado em uma população de adultos não-idosos e crescentemente utilizado em investigações geriátricas. Método: 424 sujeitos com idade igual ou superior a 60 anos foram entrevistados, completando uma ficha de dados sócio-demográficos, os instrumentos WHOQOL-BREF, Inventário de Depressão de Beck (BDI), Escala de Desesperança de Beck (BHS) e o módulo WHOQOL-OLD. A uma subamostra de 51 sujeitos foi aplicado o Módulo WHOQOL-OLD após duas semanas. Resultados: A amostra foi constituída predominantemente de mulheres (64,2%), de sujeitos vivendo na comunidade (84,4%) e de sujeitos que se consideram saudáveis (67,5%). O Módulo WHOQOL-OLD é composto por seis facetas e 24 itens, gerando escores em cada uma das facetas e um escore geral (overall). Os coeficientes de Cronbach indicam que todas as facetas e o conjunto de itens apresentam fidedignidade satisfatória, variando de 0,710 (faceta autonomia) a 0,885 (overall). As seis facetas e o escore overall mostram-se capazes de discriminar os idosos com diferentes níveis de depressão, bem como os que se percebem saudáveis daqueles que se percebem doentes. A validade concorrente, aferida através da correlação dos escores com os de sintomatologia depressiva e de desesperança, apresenta significância estatística. A comparação das médias dos escores do teste e reteste não indica diferenças, atestando a estabilidade do instrumento. Em relação ao desempenho do instrumento WHOQOL-BREF, todos seus quatro domínios demonstraram-se capazes de discriminar níveis de sintomas depressivos e de desesperança, bem como diferentes percepções de estado de saúde. Os coeficientes de correlação entre os domínios e os escores do BDI e BHS apresentaram significância estatística. Os coeficientes de fidedignidade de Cronbach assumem valores que variam de 0,614 (domínio relações sociais) a 0,925(conjunto de 26 itens). Em relação à validade de critério, O domínio Relações Sociais não apresentou significância estatística no modelo proposto de regressão linear múltipla (p=0,061). Os domínios físico, psicológico e de meio-ambiente explicam 64,7% da variância do escore global, constituído por dois itens de qualidade de vida geral.Conclusão: O módulo WHOQOL-OLD representa uma ferramenta adicional aos questionários genéricos de qualidade de vida WHOQOL-100 ou WHOQOL-BREF como uma alternativa útil na investigação de qualidade de vida de idosos, abrangendo aspectos relevantes e não abordados nos instrumentos desenhados originalmente para populações não-idosas. A testagem do desempenho psicométrico do instrumento WHOQOL-BREF demonstrou que este apresenta consistência interna, validade concorrente, validade discriminante e validade de critério satisfatórias em uma amostra de idosos brasileiros. Seus itens foram analisados previamente em grupos focais, em relação ao conteúdo e fraseamento, tendo sido considerados pelos idosos como relevantes para a aferição de qualidade de vida e de fácil entendimento. Assim sendo, o WHOQOL-BREF apresenta características que o colocam como um instrumento genérico de aferição de qualidade de vida com adequado desempenho psicométrico testado em idosos.
Resumo:
Não existe uniformidade nos critérios diagnósticos do diabetes gestacional, mas em geral eles se baseiam em testes de tolerância à glicose realizados em 2 a 3 horas . O objetivo deste estudo é avaliar a capacidade de um TTG 75g realizado em 1 hora em predizer diabetes gestacional segundo critérios da Organização Mundial da Saúde e desfechos adversos da gravidez a ele relacionados. Trata-se de um estudo de coorte de mulheres com 20 ou mais anos de idade, sem diabetes fora da gravidez, atendidas em serviços de pré-natal do Sistema Público de Saúde, em seis capitais brasileiras, entre 1991 e 1995. Os dados referem-se a 5004 mulheres que foram entrevistadas e realizaram um teste oral de tolerância com 75 g de glicose entre a 24ª e 28ª semana de gestação. Dados da evolução da gravidez e do parto foram extraídos dos prontuários. A capacidade da glicemia de 1 hora em predizer o diabetes gestacional foi excelente, com área sob a curva ROC de 0,903 (0,886-0,919). O ponto de corte que otimiza sensibilidade (83%) e especificidade (83%) na predição de diabetes gestacional é 141 mg/dl. Para macrossomia, sua sensibilidade é 33% e a especificidade 78%. Altas especificidades foram alcançadas com glicemias na ordem de 180 mg/dl na detecção do diabetes gestacional (99%) e da macrossomia (97%). Um ponto intermediário, com sensibilidade satisfatória (62%) e especificidade ainda elevada (94%) na predição do diabetes gestacional é 160 mg/dl. Para macrossomia, sua especificidade é 90%. A predição de desfechos adversos da gravidez foi semelhante à da glicemia de 2 horas. É possível, portanto, simplificar a detecção do diabetes gestacional com o TTG-1h , empregado como teste de rastreamento (140mg/dl) e de diagnóstico (180mg/dl) simultaneamente.Uma proporção pequena de gestantes ainda requer confirmação, mas o diagnóstico terá sido realizado mais precocemente naquelas com glicemia mais elevada.
Resumo:
É bem documentada na literatura a alta incidência de lesões mioarticulares em corredores; e um método atrativo de treinamento desenvolvido não só para complementar a corrida em terra, mas até mesmo para substituí-la é a corrida em piscina funda. É uma modalidade que além de melhorar a capacidade aeróbia, não oferece riscos de traumas ortopédicos devido à menor incidência de estresse mioarticular e auxilia durante o processo de recuperação de lesões de membro inferior. Este estudo teve por objetivo avaliar e comparar a ocorrência de lesão muscular e o comportamento do consumo máximo de oxigênio (VO2máx) entre um programa de treinamento de corrida em terra (CT) e um programa de treinamento de corrida em piscina funda (CPF), em indivíduos não-treinados. Os sujeitos foram divididos em dois grupos experimentais: CT e CPF. Os programas de treinamento foram realizados durante 12 semanas, sendo a intensidade do treinamento avaliada a partir da sensação subjetiva ao esforço. Analisou-se o comportamento do VO2máx pré e pós-treinamento. Para a análise de lesão muscular, utilizaram-se a concentração sangüínea de creatina quinase (CK) e a ultra-sonografia (US) na região dos isquiostibiais, em vários momentos do treinamento. Para a determinação da CK entre as medidas de cada coleta e entre os grupos experimentais, foi utilizado o teste estatístico ANOVA two-way com medidas repetidas; e, para análise do comportamento da CK entre as quatro coletas e entre os grupos experimentais, foi utilizada ANOVA two-way com medidas repetidas. O post-hoc de Bonferroni foi realizado quando havia diferença estatisticamente significativa. Para o VO2máx em cada grupo experimental, foi utilizado o Teste t de Student para amostras pareadas; e, para comparação entre os grupos, foi realizado ANOVA two-way com medidas repetidas; e novamente o post-hoc de Bonferroni foi realizado quando havia diferença estatisticamente significativa Para análise dos dados de US, foi utilizado o teste estatístico de Cochran’s Q. O nível de significância aceito foi de 5% (p < 0,05). Quando se analisou o comportamento do VO2máx para os grupos CPF e CT, verificou-se que houve diferença estatisticamente significativa entre os valores pré e pós-treinamento, mas não houve diferença entre os grupos experimentais. Quanto à CK, após a análise dos dados da coleta 1, verificou-se diferença estatisticamente significativa entre os grupos experimentais na medida 24 h após a sessão de treinamento, o que não foi verificado nas outras coletas, em que não houve diferença entre os grupos experimentais em nenhum momento. Para o grupo CT, somente nas coletas 2 e 4 verificou-se diferença estatisticamente significativa entre as medidas 24h após e 48h após a sessão de treinamento. Nas análises entre as medidas pré, pós, 24h após e 48h após nas diferentes coletas, não ocorreram diferenças significativas entre as medidas e nem entre os grupos experimentais. Quanto à US, tanto no grupo CPF quanto no CT, não houve diferença significativa entre os exames, mas foi no grupo CT que apareceram duas lesões na terceira coleta. Concluiu-se que as duas modalidades de treinamento proporcionam uma melhora na aptidão cardiorrespiratória dos sujeitos; e, embora não tenha ocorrido diferença significativa em algumas coletas de CK entre os grupos de treinamento, a corrida em terra provocou maiores níveis de aumento na concentração sangüínea de CK do que a corrida em piscina funda, sugerindo que o meio líquido pode ser o mais indicado para proteger o sistema musculoesquelético.
Resumo:
Este trabalho se insere na área de teste de sistemas de hardware. O alvo principal é o estudo do comportamento de um circuito roteador de canais telefônicos, parte integrante de um sistema de comunicação mais complexo, na presença de falhas. Neste contexto, o teste em funcionamento do referido circuito roteador é considerado. Na primeira parte deste trabalho são abordados aspectos do teste de circuitos e sistemas, do ponto de vista de sua aplicabilidade, tais como classificação, defeitos e modelos de falhas, simulação, geração de testes e projeto visando o teste. Na segunda parte, relata-se os estudos realizados para implementar o teste em funcionamento do circuito roteador. Nesta etapa são abordados a arquitetura, o modelo de falhas e a metodologia utilizada, os ensaios de detecção de falhas e as técnicas de tolerância a falhas adotadas. O projeto do circuito de chaveamento é apresentado em uma versão utilizando componentes discretos e outra utilizando dispositivos programáveis. Na conclusão deste trabalho são apresentados os resultados obtidos e as perspectivas para trabalhos futuros.
Resumo:
Este trabalho tem como objetivo estudar e avaliar técnicas para a aceleração de algoritmos de análise de timing funcional (FTA - Functional Timing Analysis) baseados em geração automática de testes (ATPG – Automatic Test Generation). Para tanto, são abordados três algoritmos conhecidos : algoritmo-D, o PODEM e o FAN. Após a análise dos algoritmos e o estudo de algumas técnicas de aceleração, é proposto o algoritmo DETA (Delay Enumeration-Based Timing Analysis) que determina o atraso crítico de circuitos que contêm portas complexas. O DETA está definido como um algoritmo baseado em ATPG com sensibilização concorrente de caminhos. Na implementação do algoritmo, foi possível validar o modelo de computação de atrasos para circuitos que contêm portas complexas utilizando a abordagem de macro-expansão implícita. Além disso, alguns resultados parciais demonstram que, para alguns circuitos, o DETA apresenta uma pequena dependência do número de entradas quando comparado com a dependência no procedimento de simulação. Desta forma, é possível evitar uma pesquisa extensa antes de se encontrar o teste e assim, obter sucesso na aplicação de métodos para aceleração do algoritmo.
Resumo:
Apesar da vida em fadiga de risers flexíveis ser de grande importância na explotação “off-shore”, os dados disponíveis são bastante restritos. A interação entre as suas várias camadas, as inúmeras combinações realizadas entre elas para se obter diferentes características e os recentes avanços em termos de materiais, nos obrigam a estudá-los constantemente. Este trabalho tinha como objetivo principal a construção de um equipamento para possibilitar o estudo da vida em fadiga de risers, através de movimentos de tração combinada com flexão, referentes ao teste “a” da classe II da norma API 17B, bem como todos os outros testes da classe I da referida norma. Foram projetadas a estrutura e todos os demais componentes, que posteriormente foram redimensionados pelos resultados obtidos em simulações numéricas (elementos finitos). Posteriormente, de posse de todos os componentes, realizou-se a montagem do equipamento, seguida de um teste final, que foi acompanhado por uma análise extensométrica dos principais pontos da estrutura. A conclusão básica deste trabalho foi obtida através da comparação das análises por elementos finitos e extensométrica, onde foi constatado que o equipamento estava apto a entrar em operação para a realização de ensaios estáticos ou dinâmicos, observando-se apenas algumas restrições comentadas.
Resumo:
Esta dissertação objetiva avaliar como as empresas organizam sua estratégia para gestão do conhecimento. Basicamente dois modelos estratégicos são apresentados na literatura: a codificação e a personalização. No entanto, há uma questão que se apresenta na literatura que se refere à importância do foco prioritário em apenas um dos modelos estratégicos citados. Como objetivo principal, pretende-se apresentar uma escala que possa analisar se uma empresa líder em seu segmento realmente possui um foco estratégico com relação à gestão do conhecimento. Durante o desenvolvimento deste trabalho, será percorrido um referencial teórico que busca explicar como a gestão do conhecimento se tomou importante para a estratégia das empresas, tocando em pontos como características da Era da Informação e conceitos básicos da gestão do conhecimento, englobando modelos teóricos que buscam explicar como o conhecimento é criado e transferido dentro das empresas. Um modelo para mensuração do foco estratégico de uma empresa será proposto. Este modelo será composto de indicadores estruturados em forma de um questionário. Para cada indicador haverá uma escala de avaliação e o conjunto do questionário buscará traduzir o foco estratégico citado. Por fim, o questionário será testado em uma empresa de Propriedade Intelectual e serão feitas análises estatísticas para avaliação do mesmo. Para isto será utilizado o procedimento da análise fatorial do tipo confirmatória. Trata-se de uma ferramenta estatística que possibilita uma avaliação tanto do modelo de análise, quanto do modelo estrutural.
Resumo:
Os dispositivos analógicos programáveis (FPAAs, do inglês, Field Programmable Analog Arrays), apesar de ainda não terem a mesma popularidade de seus pares digitais (FPGAs, do inglês, Field Programmable Gate Arrays), possuem uma gama de aplicações bastante ampla, que vai desde o condicionamento de sinais em sistemas de instrumentação, até o processamento de sinais de radiofreqüência (RF) em telecomunicações. Porém, ao mesmo tempo em que os FPAAs trouxeram um impressionante ganho na agilidade de concepção de circuitos analógicos, também trouxeram um conjunto de novos problemas relativos ao teste deste tipo de dispositivo. Os FPAAs podem ser divididos em duas partes fundamentais: seus blocos programáveis básicos (CABs, do inglês, Configurable Analog Blocks) e sua rede de interconexões. A rede de interconexões, por sua vez, pode ser dividida em duas partes: interconexões internas (locais e globais entre CABs) e interconexões externas (envolvendo células de I/O). Todas estas partes apresentam características estruturais e funcionais distintas, de forma que devem ser testadas separadamente, pois necessitam que se considerem modelos de falhas, configurações e estímulos de teste específicos para assegurar uma boa taxa de detecção de defeitos. Como trabalhos anteriores já estudaram o teste dos CABs, o foco desta dissertação está direcionado ao desenvolvimento de metodologias que se propõem a testar a rede de interconexões de FPAAs. Apesar das várias diferenças entre as redes de interconexões de FPGAs e FPAAs, muitas também são as semelhanças entre elas, sendo, portanto, indiscutível que o ponto de partida deste trabalho tenha que ser o estudo das muitas técnicas propostas para o teste de interconexões em FPGAs, para posterior adaptação ao caso dos FPAAs. Além disto, embora o seu foco não recaia sobre o teste de CABs, pretende-se utilizá-los como recursos internos do dispositivo passíveis de gerar sinais e analisar respostas de teste, propondo uma abordagem de auto-teste integrado de interconexões que reduza o custo relativo ao equipamento externo de teste. Eventualmente, estes mesmos recursos poderão também ser utilizados para diagnóstico das partes defeituosas. Neste trabalho, utiliza-se como veículo de experimentação um dispositivo específico (Anadigm AN10E40), mas pretende-se que as metodologias de teste propostas sejam abrangentes e possam ser facilmente adaptadas a outros FPAAs comerciais que apresentem redes de interconexão semelhantes.
Resumo:
Este trabalho analisa as propriedades de alguns índices em busca da melhor aproximação (proxy) para a carteira de mercado brasileira. Além dos usuais Ibovespa, IBrX, FGV-100, são considerados dois índices construídos segundo as diretrizes da Moderna Teoria de Carteiras, a saber, uma carteira ponderada pelo valor de mercado (PV) e uma carteira igualmente ponderada (PI). Em um primeiro teste é analisada a eficiência em média e variância e em um segundo avalia-se o potencial dos índices como fatores de risco sistemático. O estudo cobre o período de 1996 a 2009 e todas as ações negociadas na BOVESPA. Os resultados evidenciam a semelhança nas qualidades dos índices, não sendo possível destacar uma melhor aproximação. Ibovespa, IBrX e FGV-100 são aproximações razoáveis e podem ser utilizadas.