984 resultados para Ácido desoxirribonucleico - Modelos
Resumo:
Retornando à utilização de técnicas de séries de tempo para a estimação de parâmetros das preferências dos indivíduos, este trabalho investiga o tradicional problema do consumo intertemporal ótimo do tipo CCAPM por um novo ângulo. Se apresentam dois estimadores para o fator estocástico de descontos independentes da especificação de funções utilidade, que são utilizados para a agregação das informações disponíveis sobre os retornos dos ativos da economia. A metodologia proposta é aplicada para dados do Brasil, para o período do plano Real, e dos Estados Unidos, para um período iniciado em 1979. Na parte empírica do trabalho obtem-se dois resultados. Primeiro, obtem-se uma estimativa para o grau americano de aversão ao risco de 2,1 - mais de 10 vezes menor que o comumente encontrado na literatura. Segundo, é estimado um grau de aversão ao risco de 2,3 no caso brasileiro, o que está em linha com trabalhos anteriormente publicados.
Resumo:
O presente trabalho estima por máxima verossimilhança um modelo de ciclos reais para as economias brasileira americana. Os parâmetros são estimados partir de um VAR na forma estrutural obtido de um modelo macroeconômico de horizonte infinito com agente representativo choque tecnológico. Como algumas variáveis necessárias para estimação do modelo não são observadas emprega-se, na rotina computacional escrita em Matlab, método de Filtro de Kalman. Desta forma, enfoque adotado apresenta-se como opção metodologia de calibração, bem como metodologia de modelos VAR com imputação ad hoc de condições de identificação. Para estimação do modelo construiu-se uma base de dados de tributação para o Brasil, desagregando em impostos sobre absorção, sobre rendimento do fator capital sobre fator trabalho para período 1949-1995. Também empreende-se ao longo da dissertação, um detalhamento minucioso da técnica econométrica empregada dos procedimentos computacionais adotados.
Resumo:
A motivação deste trabalho é relacionar a teoria da estatística com uma clássica aplicação prática na indústria, mais especificamente no mercado financeiro brasileiro. Com o avanço de hardware, sistemas de suporte à decisão se tornaram viáveis e desempenham hoje papel fundamental em muitas áreas de interesse como logística, gestão de carteiras de ativos, risco de mercado e risco de crédito. O presente trabalho tem como objetivos principais propor uma metodologia de construção de modelos de escoragem de crédito e mostrar uma aplicação prática em operações de empréstimo pessoal com pagamento em cheques. A parte empírica utiliza dados reais de instituição financeira e duas metodologias estatísticas, análise de regressão linear múltipla e análise de regressão probit. São comparados os resultados obtidos a partir da aplicação de modelos de escoragem de crédito desenvolvidos com cada metodologia com os resultados obtidos sem a utilização de modelos. Assim, demonstra-se o incremento de resultado da utilização de modelos de escoragem e conclui-se se há ou não diferenças significativas entre a utilização de cada metodologia. A metodologia de construção de modelos de escoragem é composta basicamente por duas etapas, definição das relações e da equação para cálculo do escore e a definição do ponto de corte. A primeira consiste em uma busca por relações entre as variáveis cadastrais e de comportamento do cliente, variáveis da operação e o risco de crédito caracterizado pela inadimplência. A segunda indica o ponto em que o risco deixa de ser interessante e o resultado esperado da operação passa a ser negativo. Ambas as etapas são descritas com detalhes e exemplificadas no caso de empréstimos pessoais no Brasil. A comparação entre as duas metodologias, regressão linear e regressão probit, realizada no caso de empréstimos pessoais, considerou dois aspectos principais dos modelos desenvolvidos, a performance estatística medida pelo indicador K-S e o resultado incremental gerado pela aplicação do modelo. Foram obtidos resultados similares com ambas as metodologias, o que leva à conclusão de que a discussão de qual das duas metodologias utilizar é secundária e que se deve tratar a gestão do modelo com maior profundidade.
Resumo:
Com base na literatura internacional, testa-se o desempenho de alguns Drivers de Valor comumente utilizados para avaliação de empresas pelos práticos em finanças através de modelos de regressão simples do tipo cross-section que estimam os Múltiplos de Mercado (?'s dos modelos). Utilizando dados de empresas listadas na Bolsa de Valores de São Paulo-Bovespa, diagnostica-se o comportamento dos diversos múltiplos no decorrer do período entre 1994-2004, atentando-se também para as particularidades das atividades desempenhadas pelas empresas da amostra (e seus possíveis impactos no desempenho de cada Driver de Valor) através de uma subseqüente análise com a separação das empresas da amostra em setores. Extrapolando os padrões de avaliação por múltiplos simples usados pelos analistas de empresas das principais instituições financeiras presentes no Brasil, verifica-se que a introdução de intercepto na formulação tradicional não oferece resultados satisfatórios na redução dos erros de apreçamento. Os resultados encontrados podem não ser genericamente representativos, dada a limitada disponibilidade de informações e as restrições impostas na obtenção da base de dados.
Resumo:
Nos últimos tempos, mensurar o Risco Operacional (RO) tornou-se o grande desafio para instituições financeiras no mundo todo, principalmente com a implementação das regras de alocação de capital regulatório do Novo Acordo de Capital da Basiléia (NACB). No Brasil, ao final de 2004, o Banco Central (BACEN) estabeleceu um cronograma de metas e disponibilizou uma equipe responsável pela adaptação e implementação dessas regras no sistema financeiro nacional. A Federação de Bancos Brasileiros (FEBRABAN) também divulgou recente pesquisa de gestão de RO envolvendo vários bancos. Todo esse processo trouxe uma vasta e crescente pesquisa e atividades voltadas para a modelagem de RO no Brasil. Em nosso trabalho, medimos o impacto geral nos banco brasileiros, motivado pelas novas regras de alocação de capital de RO envolvendo os modelos mais básicos do NACB. Também introduzimos um modelo avançado de mensuração de risco, chamado Loss Data Distribution (LDA), que alguns especialistas, provenientes do Risco de Mercado, convencionaram chamar de Value-at-Risk Operacional (VaR Operacional.). Ao final desse trabalho apresentamos um caso prático baseado na implementação do LDA ou VaR
Resumo:
Analisamos a previsibilidade dos retornos mensais de ativos no mercado brasileiro em um período de 10 anos desde o início do plano Real. Para analisarmos a variação cross-section dos retornos e explicarmos estes retornos em função de prêmios de risco variantes no tempo, condicionados a variáveis de estado macroeconômicas, utilizamos um novo modelo de apreçamento de ativos, combinando dois diferentes tipos de modelos econômicos, um modelo de finanças - condicional e multifatorial, e um modelo estritamente macroeconômico do tipo Vector Auto Regressive. Verificamos que o modelo com betas condicionais não explica adequadamente os retornos dos ativos, porém o modelo com os prêmios de risco (e não os betas) condicionais, produz resultados com interpretação econômica e estatisticamente satis fatórios
Resumo:
O projeto de lei do Senado de Nº 317 de 2003, que estabelece a autonomia operacional do Banco Central do Brasil, é um grande passo em direção a uma modernização institucional do país. Sendo essa autonomia aprovada, uma questão crucial que se segue é como será o desenho institucional do Banco Central do Brasil. Quais áreas estarão ligadas ao BACEN e quais áreas estarão fora? Quem determinará a meta? Quem serão os membros do COPOM? Essas são apenas algumas questões que surgem quando se fala em autonomia do canco central. Existem diversos exemplos de bancos centrais autônomos no mundo e esse estudo irá analisar como esses cancos centrais operam, para que futuramente se possa tentar desenhar um arranjo institucional que se adapte as necessidades brasileiras.
Resumo:
Este trabalho apresenta os modelos clássicos e neoclássicos desenvolvido por Jorgenson. Procura suprir alguns detalhes que foram omitidos e resumir o argumento principal que é exposto com riqueza de informações. Visa, desta forma, facilitar a leitura dos trabalhos do celebrado autor sobre economia dual.
Resumo:
O objetivo fundamental desta dissertação foi desenvolver modelos de estimativa da radiação solar no intuito de complementar a base de dados visando o traçado de mapas de radiação solar para o Rio Grande do Sul. Inicialmente foi realizada uma pesquisa na literatura sobre as metodologias desenvolvidas para a estimativa da radiação solar para locais onde inexistem dados medidos desta variável. Foi feito um levantamento das técnicas estatísticas utilizadas na previsão de valores de variáveis. As metodologias pesquisadas foram aplicadas ao banco de dados SAMSON (Solar and Meteorological Surface Observational Network). Entre as variáveis deste banco de dados estão a radiação solar, a umidade relativa, a temperatura, a latitude, a altitude e a nebulosidade. A metodologia dos modelos de estimativa aplicada neste trabalho baseia-se no Método dos Mínimos Quadrados. Foram realizadas correlações mensais e anuais entre as variáveis acima citadas e seus resultados validados através de validação cruzada. Resultou apropriada, na disponibilidade de dados climatológicos, a aplicação de modelos com parâmetros mensais de regressão linear múltipla envolvendo as variáveis explicativas: insolação, temperatura média e umidade relativa. Este modelo, entre outros, foi aplicado aos dados do Rio Grande do Sul. A metodologia acima descrita aplicada aos dados medidos no Rio Grande do Sul, resultou eficaz. Foram pesquisadas técnicas de interpolação para traçado de mapas e estabelecidas regras para o traçado dos mesmos. Foram utilizados dados periféricos para a Argentina, Uruguai e Santa Catarina. Foram feitos mapas mensais de médias mensais de radiação solar global horizontal diária bem como um mapa da média anual de radiação solar global horizontal diária. Observou-se que o modelo de Ångström–Prescott apresenta bons resultados quando se dispõe apenas da insolação Os mapas serão úteis para a pesquisa e implementação de sistemas empregando Energia Solar no Estado do Rio Grande do Sul. Finalmente, a principal conclusão é a de que modelos de correlações obtidos com dados de cada mês e produzindo parâmetros mensais são mais adequados do que um único modelo de correlação com parâmetros de validade anual utilizado nas estimativas mensais.