942 resultados para mínimos cuadrados ordinarios


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Estudos anteriores mostraram que a técnica de redes neurais tem sido mais bem sucedida que os modelos tradicionais em vários assuntos relacionados ao mercado de debêntures, tais como modelar a probabilidade de default e em explicar os ratings de agências classificadoras de risco, como Standard & Poors e Moodys. O objetivo deste trabalho é testar a técnica de redes neurais para precificar debêntures no Brasil e comparar os resultados obtidos com regressões lineares. Para isso, utilizaram-se como variáveis explicativas dados contábeis, características específicas das emissões, tais como prazo para vencimento e cláusulas de recompra antecipada. Em relação às variáveis dependentes, optou-se por utilizar as taxas divulgadas diariamente pela ANDIMA como valor de mercado para as debêntures. As variáveis acima foram testadas em diversos modelos pelo método dos mínimos quadrados ordinários e o modelo que apresentou o melhor resultado foi testado em redes neurais com duas camadas intermediárias. Os resultados obtidos com redes neurais com seis e oito neurônios apresentaram resultados superiores aos modelos estimados por mínimos quadrados ordinários tanto na fase de treinamento como na fase de testes. No entanto, ainda há bastante espaço para melhorias nos modelos dado que o tamanho da base de dados disponível para este tipo de testes no Brasil ainda não é a ideal e as taxas divulgadas pela ANDIMA são médias de um grupo pequeno de instituições e não necessariamente refletem o valor de mercado de uma debênture.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho discutimos a evolução recente do mercado de previdência privada complementar aberta no Brasil, e os principais fatores motivadores dessa evolução. Concentramo-nos na participação dos chamados planos tradicionais de previdência complementar, com mínimos garantidos e reversão de excedentes financeiros. Mostramos que essa modalidade de plano possui um conjunto de opções embutidas que representam direitos do participante, ou cliente, sobre o capital da seguradora ou entidade aberta de previdência complementar (EAPC). Essas opções representam riscos adicionais no balanço da EAPC que não estão necessariamente neutralizados. Para tentar neutralizar esses riscos a gestão dos ativos garantidores dos passivos dos planos tradicionais precisa levar em consideração as características desses passivos. Apresentamos cinco critérios comuns, alguns detalhadamente descritos na literatura de finanças, para escolha e alocação de carteiras de ativos em EAPCs, considerando as especificidades dos planos tradicionais e as suas opções embutidas. Testamos carteiras selecionadas com base nesses critérios para o passado recente e procuramos avaliar o impacto dos resultados na geração de receita esperada por essa modalidade de produto. Os resultados indicam que, quanto mais correlacionada for à performance da carteira de ativos com o perfil de evolução dos passivos, mais eficiente será a neutralização dos riscos representados pelas opções emitidas pela EAPC, e menos volátil será o fluxo de receita gerado por essa modalidade de produto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo desse trabalho é apresentar revisão da literatura empírica sobre a racionalidade das expectativas e eficiência do mercado de câmbio e aplicar essa revisão sobre o mercado de câmbio brasileiro entre 2002 e 2007 em três horizontes distintos de tempo, utilizando-se (i) de dados da pesquisa Focus do Banco Central do Brasil para podermos identificar se o viés de predição do forward é devido ao prêmio de risco cambial ou a formação das expectativas e (ii) dos métodos dos mínimos quadrados ordinários e do vetor auto-regressivo. No curto prazo o mercado é eficiente e irracional, enquanto que, no longo prazo, o forward não está relacionado com o câmbio à vista. Além disso, constatamos que a heterogeneidade dos agentes nesse mercado influencia a variação cambial no curto prazo, e as expectativas possuem uma persistência após um choque estrutural.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo deste trabalho é caracterizar a Curva de Juros Mensal para o Brasil através de três fatores, comparando dois tipos de métodos de estimação: Através da Representação em Espaço de Estado é possível estimá-lo por dois Métodos: Filtro de Kalman e Mínimos Quadrados em Dois Passos. Os fatores têm sua dinâmica representada por um Modelo Autorregressivo Vetorial, VAR(1), e para o segundo método de estimação, atribui-se uma estrutura para a Variância Condicional. Para a comparação dos métodos empregados, propõe-se uma forma alternativa de compará-los: através de Processos de Markov que possam modelar conjuntamente o Fator de Inclinação da Curva de Juros, obtido pelos métodos empregados neste trabalho, e uma váriavel proxy para Desempenho Econômico, fornecendo alguma medida de previsão para os Ciclos Econômicos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

De acordo com o Censo Demográfico do Instituto Brasileiro de Geografia e Estatística (IBGE), realizado no ano de 2000 (PMPA, 2004a, 2004b), existem grandes disparidades socioeconômicas entre os bairros Rubem Berta e Moinhos de Vento, em Porto Alegre/RS. Como exemplo, o rendimento médio mensal dos responsáveis pelo domicílio nos bairros referidos, captados em 2000, foi de 29,33 salários mínimos no bairro Moinhos de Vento e de 4,05 salários mínimos no bairro Rubem Berta. Inicialmente, elege-se o quesito renda para, então, partir-se em busca de dimensões mais abrangentes em termos de qualidade de vida. Objetiva-se verificar o acesso à qualidade de vida dos habitantes dos bairros Rubem Berta e Moinhos de Vento realizando-se um estudo comparativo entre os dois bairros pesquisados, por meio da Abordagem da Capacitação e, mais especificamente, das capacitações centrais de Martha Nussbaum (2000), como também sob a impressão dos próprios sujeitos estudados. Discute-se também a possibilidade do enfoque da capacitação contribuir para a elaboração e avaliação de programas sociais. Uma pesquisa de campo caracteriza o tipo de estudo. O método de investigação é a análise interpretativa, fundamentada em entrevistas baseadas nas dez capacitações centrais de Nussbaum (2000), bem como nos métodos comparativo e observacional casual. As entrevistas foram realizadas junto a membros das associações de moradores dos bairros Rubem Berta (Associação Comunitária de Moradores do Conjunto Residencial Rubem Berta - AMORB) e Moinhos de Vento (Moinhos Vive). Como resultados, a pesquisa apresenta alguns elementos que levam a crer que seis blocos temáticos (dos dez abordados) sintetizam as maiores preocupações dos moradores do bairro Rubem Berta (saúde; violência; nutrição e habitação; planejamento familiar; educação, cultura e diversão; e meio ambiente), e que dois blocos temáticos (violência e meio-ambiente) constituem as maiores preocupações do bairro Moinhos de Vento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho é o resultado da pesquisa realizada junto aos trabalhadores informais da região metropolitana da cidade de São Luís capital do estado do Maranhão, com objetivo traçar um perfil atual deste trabalhador. Para o levantamento dos dados foi considerada uma amostra composta por um total de 93 pessoas atuantes neste ramo de atividade, levantada aleatoriamente. O procedimento metodológico usado para a coleta dos dados foi a aplicação de questionário semi- aberto com questões norteadoras para o pesquisador e o pesquisado. Por meio da análise das respostas foi possível perceber que o trabalhador informal da cidade é em sua maioria pessoas do sexo masculino, com maior concentração de idade variando entre trinta e um e cinqüenta anos, casados ou em união estável, com baixo nível de escolaridade quase que 50% no máximo com o ensino fundamental, a renda grande maioria (92,5%) chega ao máximo a três salários mínimos, em um universo onde o maior salário não ultrapassa os cinco salários. De certa forma é um agente econômico que apesar da certeza de sua insegurança em relação à seguridade social, em sua maioria gosta do que faz, são pessoas independentes, empreendedoras, encontram sempre alternativas para soluções dos problemas imediatos e não pensam em deixar seu trabalho em atividades informais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Através desta pesquisa, analisa-se a lei 9.957/2000, que instituiu o procedimento sumaríssimo no processo do trabalho. Procura-se identificar os modelos de procedimentos utilizados na tramitação do processo trabalhista, notadamente o procedimento sumaríssimo e sua eficácia, dentro da estrutura organizacional da Justiça do Trabalho. Busca-se demonstrar a necessidade do cumprimento da lei n. 9.957/2000, como instrumento viável para uma efetiva prestação jurisdicional da Justiça do Trabalho, nas ações de valor abaixo de quarenta salários mínimos. Para atingir tais propósitos, abordam-se, inicialmente, aspectos teóricos fundamentais relacionados ao acesso à justiça, aos princípios constitucionais da duração razoável do processo e da segurança jurídica e, ainda, a interpretação e integração da legislação trabalhista. Em um segundo momento, demonstra-se a necessidade de reforma na estrutura organizacional da Justiça do Trabalho para uma integral aplicabilidade do procedimento sumaríssimo, em face da sobrecarga de processos em tramitação nas varas do trabalho. Analisa-se, também, a visão dos operadores do Direito do Trabalho, jurisdicionados e serventuários da Justiça do Trabalho sobre o procedimento sumaríssimo, na qualidade de instrumento eficaz na busca de uma prestação jurisdicional célere e, por isso, efetiva. Por fim, expõe-se a proposta de criação de varas do trabalho específicas para julgamento de processos tramitados pelo procedimento sumaríssimo, como instrumento de celeridade da atividade jurisdicional e de redução do tempo de duração do processo trabalhista.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Uma das características mais ressaltantes nos últimos anos é a variedade de publicidade com as quais as empresas produtoras de bebidas alcoólicas tratam de influenciar os consumidores para comercializar seus produtos. Neste contexto surgem duas posições em relação aos efeitos da publicidade de bebidas alcoólicas no consumo desmedido e suas conseqüências na sociedade: por um lado, as empresas produtoras investem em publicidade só como um recurso para induzir o consumidor à compra do produto que oferecem em comparação aos oferecidos por seus concorrentes, e não necessariamente para promover condutas irresponsáveis no consumo de seus produtos, como dirigir alcoolizado depois de consumir bebidas alcoólicas. Por outro lado, na literatura da saúde pública opina-se o contrário: os acidentes de trânsito são vistos como uma das conseqüências do consumo desmedido e irresponsável destas bebidas, muitas vezes devido a uma publicidade de bebidas alcoólicas. Assim, a pergunta central da pesquisa é: qual é a influência da publicidade de cerveja nos acidentes de trânsito provocados por motoristas ou pedestres em estado de embriagues na cidade de Lima? Para responder a pergunta se usará um modelo log-linear estimado pelo método de Mínimos Quadrados Ordinário (MQO), tendo como variável dependente o número de acidentes de trânsito acontecidos entre o período 1999-2003. O modelo também leva em conta variáveis independentes como o montante investido em publicidade televisada de cervejas, assim como a legislação feita para modificar o comportamento das pessoas em relação ao fato de dirigir em estado de embriaguez. O resultado do modelo rodado confirma a existência de uma relação positiva entre os acidentes de trânsito e a publicidade televisada de cervejas, assim como uma relação negativa entre a legislação e os acidentes de trânsito acontecidos na cidade de Lima no período 1999 até o 2003.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A implantação do Plano Real em 1994 provocou mudanças na estrutura de receitas dos bancos brasileiros. Em épocas de altas taxas de inflação, o resultado dos bancos era composto substancialmente por rendas oriundas do financiamento da dívida interna do país e em menor parcela de outras receitas como dos empréstimos ao setor privado. Com a estabilização da economia e a globalização dos mercados financeiros mundiais, refletida na entrada de bancos estrangeiros no mercado brasileiro, as taxas de juros tenderam a diminuir, ocasionando uma mudança no foco de atuação dos Bancos que estão se concentrando na intermediação financeira. Neste projeto é apresentada a formação básica do resultado de um banco obtido com a intermediação financeira e explana-se sobre os riscos da atividade bancária. É focado o risco de crédito, abrangendo a descrição das principais metodologias de análise. Estuda-se a Resolução CMN/BACEN nO 2682 que mudou a contabilização das rendas de renegociação de dívidas e estabeleceu parâmetros mínimos para a classificação das operações de crédito alterando os critérios de constituição da provisão para créditos de liquidação duvidosa. É explicado como pode ser utilizado um modelo RARO C - Risk Adjusted Return on Capital - desenvolvido originalmente pelo Bankers Trust - para gerenciamento da Carteira de crédito de um Banco de Varejo típico. Para ilustração e considerando que no mercado brasileiro os dados estatísticos sobre operações de crédito são escassos, além de existirem dificuldades na obtenção de dados de uma Carteira de crédito real relacionadas ao sigilo bancário e estratégias de investimento, o modelo RAROC será aplicado em uma Carteira de crédito fictícia de um Banco de Varejo, especialmente criada para esse fim. O estudo não abrange os recursos necessários para a implementação do modelo, nem customização para outros tipos de Bancos, restringindo-se à análise da utilização da metodologia. Por fim, apresentamos nossas conclusões a respeito da gestão do risco do crédito baseada na utilização de um modelo RAROC.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho tem por objetivo identificar fatores que influenciam o spread de cotas seniores de Fundos de Investimento em Direitos Creditórios (FIDC). Trata-se de um estudo pioneiro no segmento de renda fixa, uma vez que os anteriores focaram o spread para debêntures. Entender componentes do spread em FIDCs é muito importante para as empresas que captam recursos no mercado de capitais por meio deste novo instrumento. A análise contemplou 113 ofertas públicas indexadas ao CDI entre 2002 e 2009 que tinham prazo determinado e pelo menos 02 investidores adquirentes das cotas. Foram elaboradas quatro regressões múltiplas pelo método dos Mínimos Quadrados Ordinários (MQO). A primeira visava identificar quais variáveis afetavam o rating. A segunda tinha como variável dependente o spread e as independentes eram todas, excluindo as que afetavam o rating. A terceira equação testou uma possível relação de não-linearidade entre spread e rating, enquanto a quarta testou o spread contra todas as demais variáveis, incluindo as que afetavam o rating. Os resultados apontaram que o rating é sim um bom determinante para o spread, assim como o volume da emissão, ambiente econômico e instituição financeira que faz a custódia do fundo. Da mesma forma, são fatores que explicam o rating: ambiente econômico, quem são o administrador e o custodiante do fundo, o número de investidores, volume, se o fundo é multi ou mono-cedente e se os ativos são performados ou não. Não há linearidade entre spread e rating em FIDCs. A maior contribuição deste estudo foi apresentar pela primeira vez variáveis que afetam um novo tipo de investimento em renda fixa, os FIDCs, tais como tipo de ativo, níveis de concentração e fundos mono e multi-cedentes. Tudo isto por meio de um cuidadoso tratamento da base de dados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo principal do estudo é verificar os efeitos das decisões do uso da tecnologia da informação (TI) no seu desempenho. Existe uma grande necessidade de justificar os investimentos realizados nessa área e uma expectativa de promover um desempenho superior com o uso dos recursos e capacidades da TI. Portanto, é importante esclarecer o seu valor e o seu papel nas organizações. Mudanças e contextos mercadológicos de rápidas transformações são grandes desafios ao ambiente das organizações. Nesse sentido, as decisões do uso da TI devem ser capazes de mobilizar os recursos e capacidades da TI para responder às mudanças do ambiente organizacional e o desempenho desse uso deve ser avaliado pela contribuição aos processos de negócio, ao contrário de insistir numa relação direta ao desempenho geral em que muitas variáveis ofuscam o real valor da TI. O estudo fundamenta-se na visão baseada em recursos da firma, nas capacidades dinâmicas e na complementaridade dos recursos organizacionais. São propostas duas orientações para as decisões do uso da TI. A primeira orientada pelas capacidades de reconfigurabilidade e complementaridade da TI. A segunda orientada pelos ativos de infra-estrutura, pessoal e parcerias. O desempenho é avaliado pelas competências do uso da TI em relação aos aspectos de sua funcionalidade e de mercado, em nível das exigências do seu processo. O estudo avaliou empiricamente seu objetivo numa amostra de profissionais responsáveis pela tomada de decisão e planejamento de TI em organizações brasileiras. Os dados foram analisados através da modelagem de caminhos por mínimos quadrados parciais. Os principais resultados apontaram fortes e significantes efeitos das decisões do uso da TI orientadas pelas capacidades sobre as decisões orientadas pelos ativos de TI. Revelou-se que as decisões orientadas pelos ativos de pessoal são as únicas que influenciam o desempenho das competências de funcionalidades da TI. Por último, foi evidenciado a importância do tratamento das decisões do uso da TI como uma capacidade dinâmica mesmo sem influência do efeito moderador da turbulência do ambiente organizacional. As principais contribuições acadêmicas são o preenchimento da lacuna que envolve as decisões do uso da TI, seu desempenho em nível de processo dentro do contexto organizacional brasileiro e o usoteórico da visão baseada em recursos da firma e das capacidades dinâmicas como pano de fundo capaz de promover o valor da TI. Dentre as principais contribuições para a prática profissional destaca-se a consideração das capacidades de reconfigurabilidade e complementaridade dos recursos de TI nas decisões do seu uso junto aos demais recursos organizacionais para que se possa obter um melhor desempenho dos processos. O estudo aponta pesquisas futuras promissoras na avaliação do valor da TI e no desenvolvimento de medidas e construtos mais apropriados para sua avaliação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Na atual conjuntura que o mundo dos negócios se encontra, cada vez mais as organizações são pressionadas a apresentar uma maior transparência em seus processos de gestão. As organizações de capital aberto já são forçadas, a bastante tempo, a cumprir regras que procuram estabelecer critérios mínimos de confiabilidade das informações que são disponibilizadas ao mercado acionário. No entanto, os últimos acontecimentos envolvendo grandes organizações americanas em escândalos acabaram comprometendo a confiança dos investidores nas informações e nos processos de governança vigente. Assim, desde então, tem sido exigida uma maior transparência corporativa por parte das organizações e órgãos reguladores do mercado acionário. Da mesma forma, muitas são as empresas de capital fechado e de controle acionário familiar que estão investindo fortemente em um processo de profissionalização. Estas organizações investem com o objetivo de fazer parte de um novo modelo empresarial que preserva a transparência e respeito aos investidores. Este estudo enfoca o processo de identificação dos requisitos informacionais para um sistema de informações a ser utilizado por um conselho de administração em uma empresa, cujo controle acionário é familiar. O conselho de administração assumiu um papel relevante no novo modelo empresarial que busca a boa governança corporativa, pois é ele o principal elo de ligação entre os acionistas e o grupo executivo das organizações. Para o desenvolvimento do estudo foi empregada a metodologia “Soft Systems”, com as seguintes finalidades: identificar o problema a ser abordado, definir os modelos conceituais, registrar os requisitos informacionais das principais atividades identificadas, comparar os modelos conceituais com os sistemas informacionais existentes e, por fim, propor melhorias para a situação problemática identificada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A tese tem como objetivo discutir a liquidez do mercado secundário de títulos da dívida pública no Brasil. Em três ensaios, defende que problemas de organização do mercado prejudicam a ampliação da liquidez e que a formação de preços nesse mercado acompanha as taxas do mercado futuro de depósitos interfinanceiros – DI futuro, e não o contrário, como esperado, já que a presença de títulos de elevada liquidez no mercado à vista é que deveria desenvolver o mercado futuro. O primeiro ensaio mede e estima os determinantes do bid-ask spread cotado (indicador de liquidez) para cada vértice de taxa de juros, tendo como referência os vencimentos dos títulos pré-fixados em cabeça de semestre: LTNs (LTN-13 e LTN-11) e NTNFs- (NTNF-17, NTNF-14). Mercados com menores spreads são mais líquidos, mercados com spreads maiores são menos líquidos. Os modelos empíricos foram estimados por meio de análises de séries de tempo. O trabalho utiliza o cálculo do bid-ask cotado para medir a liquidez dos títulos em análise, medido pela diferença entre o ask price e o bid price de fechamento do mercado. A estimação dos determinantes da liquidez de mercado foi realizada com base no método dos mínimos quadrados ordinários (MQO). O modelo testa se maturidade e volume de negócio determinam o bid-ask spread dos títulos. Mercados com menores spreads são mais líquidos do que mercados com maiores spreads. Os resultados mostram que a mediana e a média do bid-ask spread cotado crescem com a maturidade dos títulos. Os sinais dos parâmetros das regressões confirmam para a maioria dos vértices dos vértices analisados neste trabalho a hipótese inicial de que o bid-ask spread aumenta com a elevação maturidade e diminui com maior volume negociado, confirmando a hipótese de baixa liquidez dos títulos públicos no mercado secundário brasileiro. O segundo ensaio analisa uma singularidade relevante do mercado brasileiro: a dependência da formação dos preços e da taxa de juros no mercado secundário de títulos públicos (LTN e NTNF) em relação ao DI futuro. As variáveis utilizadas foram o bid-ask spread cotado e o volume negociado no mercado de títulos públicos e de DI futuro. O ensaio utiliza tanto o método de Granger (1969), que tem como suposto que as informações relevantes para a previsão das variáveis estão contidas exclusivamente nos dados das séries temporais destas mesmas variáveis, quanto o modelo de Geweke (1982) para testar a causalidade, simultaneidade e dependência linear entre as duas séries no tempo. Os resultados confirmam a hipótese inicial de que bid-ask spread e volume de títulos públicos possuem forte dependência do bid-ask spread e do volume para contratos de DI futuro de mesmo vencimento, dependência devida à causalidade do mercado de DI futuro para o mercado de títulos públicos para a maioria dos vértices analisados nesse trabalho, indicando que a taxa CDI é benchmark para a precificação dos títulos públicos. Uma possível explicação está nos fatores de microestrutura, que fazem com que esse mercado seja o mais conveniente para negociar risco de liquidez e de mercado. O terceiro ensaio discute as implicações do desenho institucional sobre a liquidez do mercado secundário de títulos públicos - mecanismos e regras de negociação, desenho dos títulos e base de investidores. Essas regras afetam a formação dos preços no mercado, definem as trocas, a dimensão da assimetria de informação e os custos de transação e do processo de negociação. Pela sua relevância, a organização do mercado de títulos públicos tem sido objeto de reformas em diversos países. O terceiro ensaio é finalizado com a análise das medidas adotadas no Brasil e de seus resultados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A área de pesquisa de testes não-destrutivos é muito importante, trabalhando com o diagnóstico e o monitoramento das condições dos componentes estruturais prevenindo falhas catastróficas. O uso de algoritmos genéticos para identificar mudanças na integridade estrutural através de mudanças nas respostas de vibração da estrutura é um método não-destrutivo que vem sendo pesquisado. Isto se deve ao fato de que são vantajosos em achar o mínimo global em situações difíceis de problemas de otimização, particularmente onde existem muitos mínimos locais como no caso de detecção de dano. Neste trabalho é proposto um algoritmo genético para localizar e avaliar os danos em membros estruturais usando o conceito de mudanças nas freqüências naturais da estrutura. Primeiramente foi realizada uma revisão das técnicas de detecção de dano das últimas décadas. A origem, os fundamentos, principais aspectos, principais características, operações e função objetivo dos algoritmos genéticos também são demonstrados. Uma investigação experimental em estruturas de materiais diferentes foi realizada a fim de se obter uma estrutura capaz de validar o método. Finalmente, se avalia o método com quatro exemplos de estruturas com danos simulados experimentalmente e numericamente. Quando comparados com técnicas clássicas de detecção dano, como sensibilidade modal, os algoritmos genéticos se mostraram mais eficientes. Foram obtidos melhores resultados na localização do que na avaliação das intensidades dos danos nos casos de danos propostos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O modelo de três fatores de Fama & French (1993) é uma extensão do modelo de precificação de ativos de Sharpe (1963), Lintner (1965) e Black (1972), o CAPM. Em Fama & French (1993), o valor de mercado e o valor contábil das empresas são adicionados como variáveis explicativas ao fator de risco de mercado β do CAPM. O objetivo deste trabalho é testar o poder explicativo do modelo de três fatores para o mercado acionário brasileiro. A inovação deste trabalho foi a utilização de um universo de ações móvel, no qual os títulos que são lançados na Bovespa no período de análise vão sendo incorporadas à base de dados conforme atingem os requisitos do modelo. Trata-se de uma abordagem inovadora, já que tradicionalmente o universo de ações que compõe a amostra é rígido do início ao fim do período de análise. Esta abordagem foi desenvolvida com o intuito de mitigar o problema de falta de dados do mercado acionário brasileiro. O período de análise foi de 2000 à 2011, e as ações utilizadas foram todas aquelas que possuíam um histórico confiável e apresentaram pelo menos um negócio à cada dois meses. A análise do Modelo de Três Fatores foi realizada utilizando a metodologia de séries temporais de Black, Jensen e Scholes (1972), da mesma forma que Fama & French (1993). Como variável dependente foram utilizadas 16 carteiras, oriundas do cruzamento das ações dividas em 4 percentis iguais pelos seus valores de mercado (ME), e 4 percentis iguais pela razão valor de mercado pelo valor contábil (ME/BE). Como variáveis independentes foram construídas duas séries de retorno que replicam os fatores de risco valor de mercado, SMB, e a razão valor de mercado pelo valor contábil, HML. Estas foram construídas pela diferença dos retornos das ações de maior ME e menor ME; e pela diferença do retorno das de maior ME/BE, pelas de menor ME/BE. O método de estimação dos coeficientes das regressões utilizado foi o dos mínimos quadrados ordinários. Os resultados do Modelo encontrados para a bolsa brasileira foram similares àqueles encontrados por Fama & French (1993). O Modelo apresentou maior poder explicativo para os retornos dos portfolios analisados que o CAPM, e mostrou-se estatisticamente significante para 15 das 16 carteiras. Os coeficientes das regressões relativos aos fatores de risco SMB e HML apresentaram, em sua maioria, os mesmo sinais que os encontrados por Fama & French (1993). Foi encontrada uma discrepância relativa ao sinal do fator HML para as carteiras de maior ME/BE, cuja explicação está atrelada ao momento da economia e mercados no período. Por fim, o Modelo e a discrepância foram reavaliados dividindo-se o período de análise em pré e pós-crise de 2008. O modelo mostrou maior poder explicativo para o período pós-crise que para o pré-crise. A mesma discrepância do sinal de HML foi encontrada no pré-crise, entretanto não foi verificada no pós-crise.