1000 resultados para Rácios de Variância


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho revisa os principais métodos numencos utilizados para reproduzir o comportamento de um índice, implementa quatro desses modelos ao caso brasileiro (Índice Bovespa) e discute a aplicação e os pontos favoráveis e desfavoráveis de cada modelo. Em uma primeira etapa, a vantagem da. administração passiva e a potencialidade de uso de uma carteira espelho são descritas. Em seguida, os modelos de replicação existentes na literatura no tocante a suas respectivas hipóteses, suas derivações matemáticas e suas propriedades teóricas são apresentados. Após essa revisão, os modelos de replicação plena, de carteira de rrururna vanancia global, de Black e de minimização quadrática sem venda a descoberto são implementados. Os resultados são verificados sob os parâmetros de tracking errar, beta, R-quadrado e semelhança de série em relação à média e à variância. A conclusão é de que existem diferentes objetivos ao se replicar um índice e que, para cada um destes objetivos, diferentes abordagens ou ferramentas são adotadas. Por exemplo, o administrador que busca o retorno de um índice de mercado, deve conseguir os melhores resultados utilizando o modelo de replicação plena. Já para aquele que visa arbitragem de índice, através de ativos do mercado à vista, a recomendação é aplicar os modelos que utilizam a otimização quadrática para montar a carteira espelho.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação é apresentada sob a forma de dois artigos. O primeiro foi realizado com o objetivo de comparar medidas verticais e horizontais de imagens adquiridas em estereomicroscópio (E) e scanner de mesa (S). Para isso, 50 dentes posteriores extraídos de humanos e seccionados no sentido mésio-distal foram utilizados. Cada hemi-secção foi fotografada no estereomicroscópio e digitalizada em scanner de mesa, com resolução de 230 dpi. No programa Photoshop foram realizadas medições horizontais (H) e verticais (V) de cada hemi-secção, nas imagens obtidas pelos dois métodos, com repetição aleatória de 20% dos casos da amostra. As medidas iniciais e repetidas apresentaram excelente correlação e o teste t para amostras pareadas não evidenciou diferenças significativas (p = 0,05) entre elas nos dois métodos. As médias das medidas e seus desvios-padrão foram: horizontais E 8,89 mm ? 4,30 mm, S 8,89 mm ? 4,52 mm e verticais E 4,42 mm ? 2,19 mm, S 4,43 mm ? 2,19 mm. O teste t para amostras pareadas com nível de significância de 5% demonstrou não haver diferenças significativas entre os dois métodos, tanto para as medidas horizontais (p=0,685) quanto para as verticais (p=0,299). Conclui-se que o scanner de mesa pode substituir o estereomicroscópio na aquisição de imagens de hemi-secções de dentes, com a finalidade de obtenção de medidas horizontais e verticais. O segundo artigo avaliou, in vitro, a profundidade de lesões de cárie proximal em dentes posteriores, comparando os exames clínico e radiográfico interproximal, com e sem a aplicação de cores, ao exame histológico. No total, 142 superfícies proximais foram avaliadas clinicamente e radiografadas. Para obtenção do padrão-ouro do estudo o exame histológico com cortes seriado foi realizado e as secções adquiridas, assim como as radiografias, digitalizadas com scanner de mesa A partir da criação de um programa digital, foi possível a aplicação de cores nas imagens radiográficas de maneira padronizada, de acordo com a intensidade de pixels de cada superfície. A profundidade das lesões foi aferida por meio de escores e de medidas nas imagens histológicas, radiográficas com e sem o uso de cor em cada superfície da amostra. O programa não foi capaz de identificar superfícies hígidas e lesões em diferentes profundidades no esmalte. Em todas as lesões que apresentavam alteração radiográfica em dentina, os escores atribuídos às imagens radiográficas com aplicação de cores foram 100% concordantes com os escores histológicos. Em relação às lesões que apresentavam histologicamente alteração na metade externa dentina, 55,56% tiveram sua profundidade subestimada, contudo nenhuma era cavidade em dentina. Todas as lesões que apresentavam profundidade histológica na metade interna de dentina apresentavam cavidade em dentina e mostraram a mesma extensão com a aplicação de cor na radiografia, superando os resultados obtidos com a radiografia sem cor. Em relação às medidas de profundidade, quando um desvio-padrão foi subtraído da média de densidade óptica para a aplicação de cores, as medidas resultantes foram ligeiramente menores e não diferiram significativamente daquela do exame histológico de acordo com a Análise de Variância, utilizando o delineamento de blocos casualizados, complementado pelo teste de Comparações Múltiplas de Tukey. O uso de um programa digital que determina de maneira padronizada como cada imagem deve ser colorida auxilia no diagnóstico de lesões de cárie que apresentam extensão histológica em dentina, especialmente aquelas que atinjam a sua porção interna.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo deste estudo foi avaliar e comparar in vitro o desempenho dos fotoativadores Apollo® 95E /DenMed Technologies, com luz xênon (arco de plasma - PAC), e o Curing Light® XL 3000 /3M-Unitek, com luz halógena (convencional - QTH), comparando-se, desta forma, um fotoativador de alta intensidade de luz (PAC) com um convencional (QTH). A efetividade dos aparelhos foi verificada pelo grau de polimerização apresentado pela resina composta (Transbond™XT/3MUnitek), avaliado em espectrofotometria por infravermelho e pela análise de microdureza Knoop. Os tempos de ativação para a fonte PAC foram um, dois e três segundos e, para a fonte QTH, foram 10, 20 e 30 segundos, buscando-se avaliar a equivalência, ou não, dos diferentes tempos das diferentes unidades fotoativadoras. Foram usadas matrizes metálicas circulares, que receberam a resina para posterior polimerização. Para cada tempo de ativação, para cada aparelho e para cada teste, foi fotoativada a resina composta de cinco corpos-de-prova. Foi avaliada, também, a temperatura no extremo distal do condutor de luz de cada aparelho, nos seus respectivos tempos predeterminados, colocando-se justaposto, à ponta do fotoativador, o sensor do dispositivo de aferição Sekundenthermometer/GTH 1160 – Phywe. Os resultados obtidos foram submetidos ao teste não-paramétrico Kolmogorov-Smirnov, à Análise de Variância (ANOVA) e ao teste de comparações múltiplas de Tukey. Os resultados da espectrofotometria apontaram diferença estatística significativa entre os grupos estudados. O grupo QTH alcançou as maiores médias e diferiu do grupo PAC (p=0,01). O ensaio de microdureza Knoop também apresentou resultados que apontaram a existência de diferença estatística significativa entre os grupos estudados, tendo o grupo QTH alcançado as maiores médias (p=0,01). A avaliação da temperatura igualmente apresentou diferença estatística significativa entre os grupos estudados (p=0,01), sendo que o grupo QTH atingiu as maiores médias. Com base na metodologia empregada e na análise dos dados obtidos no presente estudo, pode-se concluir que o grau de polimerização da resina composta e a temperatura no extremo distal do condutor de luz apresentaram diferença estatística significativa com o uso das unidades fotoativadoras Apollo® 95E (xênon) e Curing Light® XL 3000 (halógena) nos respectivos tempos predeterminados (p=0,01), ficando sempre, com as maiores médias, o aparelho convencional com luz halógena.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Mancha Foliar de Phaeosphaeria é considerada uma das mais importantes moléstias do milho no Brasil. Atualmente, existem dúvidas quanto ao agente causal e o melhoramento genético tem dificuldade de desenvolver cultivares resistentes estáveis. Neste estudo os objetivos foram identificar os fungos causadores da moléstia, estudar a herança da resistência, sob infestação natural e artificial, e identificar marcadores moleculares ligados à resistência à moléstia. Quatro fungos foram associados às lesões de Phaeosphaeria. Phyllosticta sp., Phoma sorghina e Sporormiella sp. foram patogênicos e Phoma sp. não foi testado. Os fungos P. sorghina e Phoma sp. foram, respectivamente, o predominante e o menos freqüente na lesão para todos os quatro ambientes coletados. Phyllosticta sp. e Sporormiella sp. foram os de mais baixa freqüência e restritos a locais. Estudos sob infestação natural, com três cruzamentos, em um único ambiente e com três tipos de avaliação de severidade evidenciaram a presença de variabilidade genética para a resistência e proporcionaram estimativas de herdabilidade intermediárias (0,48-0,69). No estudo de médias de gerações o modelo aditivo-dominante explicou as bases genéticas da resistência, sendo a ação gênica de dominância a mais importante. A inoculação artificial de um cruzamento com Phyllosticta sp. e P. sorghina, confirmaram a presença de dominância. Nos estudos moleculares, a fenotipagem foi realizada sob infestação natural e para um único ambiente e a genotipagem com marcadores microssatélites. A percentagem de polimorfismo obtida foi de 36%, sendo que seis QTLs foram identificados. Estes resultados indicam que vários fungos estão envolvidos na produção dos sintomas da moléstia conhecida por Mancha Foliar de Phaeosphaeria e a composição de fungos na lesão pode variar conforme o ambiente. A estimativa de herdabilidade indica a possibilidade de êxito com a seleção em gerações segregantes, principalmente porque os efeitos gênicos preponderantes para a resistência envolvem aditividade e dominância. A análise de QTL permitiu explicar grande parte da variância fenotípica (80%) e genotípica (58%); entretanto, outros ambientes devem ser testados para a sua efetiva confirmação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O impacto da adoção de modelos de excelência em gestão com foco na qualidade sobre o desempenho de empresas é um tema recorrente em estratégia de operações. Segundo a teoria sobre o tema, as empresas que adotam estes modelos deveriam observar taxas de lucratividade ou crescimento superiores a outras empresas. Esta dissertação buscou evidenciar, empiricamente, estes impactos para empresas brasileiras que passaram para a segunda fase ou foram finalistas do Prêmio Nacional da Qualidade de 2000 a 2004. O estudo foi feito sobre uma amostra de 1727 observações de 426 empresas de 15 setores, das quais 23 haviam participado do Prêmio Nacional da Qualidade, e 13 haviam passado para sua segunda fase e 6 foram finalistas. Os dados foram obtidos das edições do Balanço Anual da Gazeta Mercantil de 2000 a 2004 e da Fundação Nacional da Qualidade. A técnica de análise incluiu análises de distribuições, testes de média, testes não paramétricos e regressões lineares. O estudo encontrou grande variância de resultados de lucratividade e crescimento, o que ressalta sua importância gerencial. O principal achado do estudo foi que empresas brasileiras que adotam o modelo apresentaram lucratividade acima da média, como foi encontrado por diversos estudos em outros países. No entanto, as empresas brasileiras que adotam o modelo apresentaram crescimento em linha com a média de seus setores. Enquanto a maior parte dos estudos empíricos de outros países mostra uma relação positiva entre a adoção do modelo e o crescimento de empresas, existem teorias que mostram possíveis efeitos adversos da adoção deste modelo de gerenciamento sobre a capacidade de empresas gerarem inovações radicais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho teve como objetivo avaliar a relação entre as concentrações industriais e o desempenho financeiro das empresas nelas instaladas. A revisão de literatura sustentou a formulação das hipóteses deste trabalho, que partiram do pressuposto de que a localização em concentrações industriais proporciona às firmas maior retorno sobre ativos, retorno operacional sobre ativos, giro dos ativos e slack organizacional, em relação às empresas não concentradas. A indústria de manufatura do estado de São Paulo foi o setor escolhido para análise. Para o mapeamento das concentrações industriais, foram utilizados os dados da base de empregos e estabelecimentos da RAIS, referentes ao período 1996-2005. A identificação das concentrações industriais permitiu à SERASA, empresa de análises e informações para decisões de crédito e apoio a negócios, elaborar uma base de dados de empresas localizadas no estado de São Paulo, mediante o fornecimento da relação dos setores industriais caracterizados pela presença de concentrações. Inicialmente com 8.637 registros, a base foi reduzida a 4.280 registros, correspondentes a 509 firmas pertencentes a 23 diferentes indústrias. Após a seleção dos dados, a variável que identifica as áreas do estado de São Paulo com concentrações industriais foi inserida na base da SERASA, permitindo, dessa forma, a realização das análises deste trabalho. Por meio da técnica estatística de modelos multiníveis, foi possível constatar que não há evidências suficientes para afirmar que a localização em concentrações industriais proporciona às empresas maior retorno sobre ativos, retorno operacional sobre ativos, giro dos ativos ou slack organizacional, em relação às empresas não localizadas em concentrações. No entanto, a decomposição da variância desses indicadores permitiu constatar que o município e a forma como um município e uma indústria interagem são determinantes na variabilidade desses indicadores. Este resultado sugere que a localização importa, e muito, na forma como as empresas irão se desempenhar. As análises ainda permitiram estimar o efeito de cada interação entre indústria e município sobre os indicadores propostos. Além da constatação de uma grande variabilidade desses efeitos, não foi detectada uma diferença significativa entre os efeitos das interações com e sem concentrações industriais. Portanto, outros fatores específicos a essas interações, que não a concentração industrial, seriam capazes de explicar porque algumas interações possuem efeitos muitos positivos sobre suas empresas, enquanto outras, efeitos muito pequenos ou negativos. As limitações inerentes a este trabalho impedem a generalização de seus resultados. No entanto, acredita-se que as suas contribuições sejam capazes de mostrar novas possibilidades de pesquisa no campo das concentrações industriais, a fim de compreender a real importância deste fenômeno para a competitividade das empresas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A avaliação de desempenho de fundos de investimentos é, tradicionalmente, realizada utilizando-se o Índice de Sharpe, que leva em consideração apenas os dois primeiros momentos da distribuição de retornos (média e variância), assumindo as premissas de normalidade da distribuição de retornos e função quadrática de utilidade do investidor. Entretanto, é sabido que uma função de utilidade quadrática é inconsistente com o comportamento do investidor e que as distribuições de retornos de determinados fundos, como os hedge funds, estão longe de serem uma distribuição normal. Keating e Shadwick (2002a, 2002b) introduziram uma nova medida denominada Ômega que incorpora todos os momentos da distribuição, e tem a vantagem de não ser necessário fazer premissas sobre a distribuição dos retornos nem da função de utilidade de um investidor avesso ao risco. O objetivo deste trabalho é verificar se esta medida Ômega tem um poder de previsibilidade maior que outras medidas de avaliação de desempenho, como o Índice de Sharpe e o Índice de Sortino. O estudo empírico indicou que a medida Ômega gera um ranqueamento, na maioria das vezes, relativamente diferente das outras medidas testadas. Apesar das carteiras formadas com base na medida Ômega terem gerado um retorno médio maior que o retorno médio das carteiras formadas pelas outras medidas em praticamente todos os testes, esta diferença entre as médias dos retornos só foi significativa em alguns casos. Mesmo assim, há uma leve indicação de que a medida Ômega é a mais apropriada para utilização do investidor ao fazer a avaliação de desempenho dos fundos de investimentos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A importância relativa de diversas origens da heterogeneidade do desempenho das firmas tem sido discutida em termos teóricos e testada empiricamente, com ênfase nos efeitos da indústria, da corporação, dos recursos idiossincráticos da firma e do ano. Este trabalho estudou a influência do país sobre o desempenho das firmas. Efeitos significantes e significativos do país e da interação indústria-país foram identificados. A amostra analisada incluiu mais de 80.000 observações e 11.000 firmas em 37 países e 256 indústrias em um período de 10 anos. Um modelo linear hierárquico com quatro níveis permitiu identificar que os efeitos país, indústria e indústria-país têm aproximadamente a mesma importância relativa e, em conjunto, quase a mesma magnitude do efeito firma. A relevância destes efeitos foi consistente entre as diferentes divisões do SIC (Standard Industrial Classification) assim como se manteve estável ao longo do tempo. Um modelo para explicação da variância do desempenho entre países foi proposto e estimado, em caráter exploratório, na análise da relação entre competitividade das nações e rentabilidade das firmas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Diversos estudos vêm analisando a contribuição da gestão da qualidade para o resultados financeiros das empresas, sejam eles conduzidos por acadêmicos ou por firmas de consultoria diretamente interessadas em comprovar a relação entre qualidade e desempenho superior. Apesar dos benefícios atribuídos ao gerenciamento da qualidade, o conjunto de pesquisas empíricas publicadas até hoje apresenta resultados não conclusivos. A grande maioria desses trabalhos se utilizam de dados de empresas americanas ou européias; no Brasil tal linha de pesquisa ainda é incipiente. Além de comparar o desempenho financeiro de uma amostra de empresas que efetivamente adotam a gestão da qualidade com as demais empresas de seus respectivos setores de atuação, este trabalho avaliou também a evolução do desempenho das próprias empresas dessa amostra no longo prazo (10 anos), comparando seus resultados no período pós-implementação da qualidade com os resultados obtidos anteriormente. Como proxy para a adoção efetiva da qualidade foram consideradas na amostra de estudo 33 empresas reconhecidas como ganhadoras ou finalistas do Prêmio Nacional da Qualidade (PNQ). O desempenho financeiro foi medido em três dimensões: crescimento, lucratividade e valor de mercado. Esses dados foram obtidos de um conjunto de bases de dados entre as quais se destacam o Balanço Anual da Gazeta Mercantil, a Economática e as Pesquisas Industriais Anuais do IBGE. Para isolar o efeito do setor de atuação das empresas, as variáveis foram parametrizadas de acordo com uma relação entre o desempenho das empresas da amostra de estudo, o desempenho do setor e a variância do desempenho do setor. No total, foram utilizadas 12.010 observações de 2.624 empresas (33 da amostra de estudo e 2.591 dos setores), no período de 1987 a 2006. Na primeira etapa da metodologia, o desempenho de cada empresa da amostra de estudo foi sumarizado por meio de regressões lineares, resultando em dois coeficientes: um linear representando o desempenho no ponto médio do período e um angular representando a taxa de evolução do desempenho no mesmo período. A seguir, análises paramétricas (testes t) e não-paramétricas (testes de Wilcoxon para observações pareadas e teste dos sinais) foram realizadas para os dados de toda a amostra. Os resultados mostraram que a rentabilidade foi a única dimensão estudada onde as empresas da amostra tiveram desempenho superior à média de seus respectivos setores; por outro lado, não foram observadas melhorias no desempenho quando comparados os períodos anterior e posterior à implementação efetiva da qualidade. A análise em conjunto desses dois achados fornece indícios de uma relação de co-variância, e não causal, entre qualidade e lucratividade. As conclusões apresentam as principais implicações dos resultados, com ênfase na formulação de possíveis hipóteses para se entender as causas da falta de associação entre qualidade e desempenho superior. Entre as mais importantes destacam-se hipóteses que relacionam qualidade e a perda da capacidade de inovação e que avaliam a gestão da qualidade sob a ótica da linha de pesquisa em estratégia conhecida por visão baseada em recursos (resource-based view – RBV).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo desta dissertação é analisar as regras de condução da política monetária em modelos em que os agentes formam suas expectativas de forma racional (forward looking models), no contexto do regime de metas de inflação. As soluções ótimas de pré - comprometimento e discricionária são derivadas e aplicadas a um modelo macroeconômico para a economia brasileira e os resultados são também comparados com os obtidos pela adoção da regra de Taylor. A análise do comportamento do modelo sob diferentes regras é feita através da construção da fronteira do trede-oit da variância do hiato do produto e da inflação e da análise dinâmica frente a ocorrência de choques. A discussão referente à análise dinâmica do modelo é estendida para o caso onde a persistência dos choques é variada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo desta dissertação é analisar o uso de regras ótimas irrestritas e de regras simples restritas de política monetária para a economia brasileira, com especial atenção ao impacto da taxa de câmbio na transmissão da política monetária. As regras foram encontradas através de um processo de programação dinâmica e comparadas em termos da eficiência econômica de cada uma, medida pela redução da variância do produto e da inflação. Estes resultados serviram de referência para avaliar o desempenho do regime de metas de inflação no Brasil, desde a sua implementação em julho de 1999.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Estatística é uma ferramenta indispensável em todos os campos científicos. A Estatística descritiva é usada para sintetizar dados. O principal problema desta área está relacionado aos valores de uma amostra, os quais geralmente possuem erros que ocorrem durante a obtenção dos dados. Um dos objetivos deste trabalho é apresentar uma forma de representação para os valores amostrais que considera os erros contidos nestes valores. Esta representação é realizada através de intervalos. A literatura mostra que foram realizadas pesquisas somente em problemas de calcular os valores intervalares das medidas de dispersão variância, covariância e coeficiente de correlação, que a utilização da computação intervalar na solução de problemas de medidas de dispersão intervalar sempre fornece solução com intervalos superestimados (intervalos com amplitude grande), e que ao procurar uma solução com intervalos de amplitude pequena (através da computação da imagem intervalar), o problema passa a pertencer a classe de problemas NP-Difícil. Com o objetivo principal de analisar a complexidade computacional dos problemas de computar os valores dos indicadores estatísticos descritivos com entradas intervalares, e realizar uma classificação quanto a classe de complexidade, a presente tese apresenta: i) definições intervalares de medidas de tendência central, medidas de dispersão e separatrizes; ii) investigação da complexidade de problemas das medidas de tendência central média, mediana e moda, das medidas de dispersão amplitude, variância, desvio padrão, coeficiente de variação, covariância, coeficiente de correlação e das separatrizes e iii) representação intervalar dos valores reais, de tal modo que garante a qualidade de aproximação nos intervalos solução calculado através da extensão intervalar Primeiramente, apresentamos uma abordagem intervalar para os indicadores estatísticos e propomos algoritmos para a solução dos problemas de computar os intervalos de medidas de tendência central intervalar, dispersão intervalar e separatrizes intervalares. Tais algoritmos utilizam a aritmética intervalar definida por Moore, a extensão intervalar e foram projetados para serem executados em ambientes intervalares como IntLab e Maple Intervalar. Por meio da análise da complexidade computacional verificamos que os problemas de medidas de tendência central, dispersão e separatrizes, com entradas intervalares, pertencem à classe de problemas P. Este trabalho apresenta, portanto, algoritmos de tempo polinomial que calculam os intervalos dos indicadores estatísticos com entradas intervalares, e que retornam como solução intervalos com qualidade de aproximação. Os resultados obtidos no desenvolvimento do trabalho tornaram viável a computação da Estatística Descritiva Intervalar.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O trabalho analisa a evolução da política monetária desde a implementação do regime de metas de inflação no período de 1999 a 2009 com o intuito de avaliar se há diferenças na condução de política monetária entre as gestões Armínio Fraga e Henrique Meirelles. Um modelo de equilíbrio geral novo-keynesiano baseado em expectativas racionais é utilizado para modelar a economia brasileira e deriva-se uma regra de Taylor para encontrar a condição suficiente para a convergência da inflação. O processo de analise empírica consiste em estimar um modelo de vetores auto-regressivos, cujos parâmetros variam ao longo do tempo assim como as inovações na matriz de variância-covariância. Para tanto, será utilizado um algoritmo de simulação de Monte Carlo. Os resultados empíricos mostram que (i) não há diferenças significativas na condução de política monetária durante as gestões Armínio Fraga e Henrique Meirelles; (ii) A partir de 2003, a taxa de juros permaneceu acima da necessária para a convergência da inflação de acordo com a condição de estabilidade; e (iii) a gestão Armínio Fraga agiu de acordo com a regra de estabilização na crise de 2002, porém a inflação permaneceu acima da meta por causa da magnitude dos choques exógenos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo do trabalho é demonstrar que a otimização de uma carteira composta por fundos multimercados brasileiros gera melhores resultados quando a medida de risco utilizada é o Conditional Value-at-Risk. Modelos de otimização de carteira têm como objetivo selecionar ativos que maximizem o retorno do investidor para um determinado nível de risco. Assim, a definição de uma medida apropriada de risco é de fundamental importância para o processo de alocação. A metodologia tradicional de otimização de carteiras, desenvolvida por Markowitz, utiliza como medida de risco a variância dos retornos. Entretanto, a variância é uma medida apenas apropriada para casos em que os retornos são normalmente distribuídos ou em que os investidores possuem funções de utilidade quadrática. Porém, o trabalho mostra que os retornos dos fundos multimercados brasileiros tendem a não apresentar distribuição normal. Logo, para efetuar a otimização de uma carteira composta por fundos multimercados brasileiros é necessário utilizar uma medida de risco alternativa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho utiliza a “Contabilidade do crescimento” para analisar e explicar as diferenças nas taxas de crescimento do PIB per capita dos países Brasil, Chile, China, Índia e Coréia no período compreendido entre os anos 1960 e 2000. Descrevendo os quatro fatos estilizados do crescimento econômico, a “Contabilidade do crescimento de Solow”, bem como a função de produção Cobb-Douglas, buscou-se dar o embasamento teórico para o modelo utilizado de fato no presente trabalho, que decompôs o crescimento dos diferentes países para identificar qual fator mais contribuiu ou quais fatores de produção mais contribuíram para os diferentes níveis de crescimento econômico dos países analisados. A metodologia utilizada no trabalho baseia-se em pesquisas bibliográficas, que visam primordialmente a fundamentação conceitual e teórica de alguns conceitos utilizados e em pesquisas às diferentes bases de dados históricos referentes aos países e variáveis analisadas. Pode-se afirmar que as principais fontes de consulta foram a “Penn World Table” da Universidade da Pensilvânia e o Banco Mundial. O estudo irá demonstrar, além dos diferentes níveis de cada um dos fatores (capital humano, físico e progresso tecnológico ou “TFP – Total Factor Productivity” ) nos países, como cada um desses fatores evoluiu ao longo dos anos e qual a contribuição de cada um nas taxas de crescimento do PIB per capita de cada um dos países analisados. É feito um estudo da variância do crescimento do PIB per capita, onde ficará claro que boa parte das diferenças apresentadas nas taxas de crescimento dos países vem do progresso tecnológico ou da covariância dos fatores, que são progresso tecnológico e o agrupamento do capital físico e humano. Também verificou-se a correlação existente entre a variação do PIB per capita e as variáveis que o compõe, permitindo a visualização do alto grau de correlação existente, principalmente com o progresso tecnológico ou “TFP”.