862 resultados para Processo estocastico - Modelos matemáticos
Resumo:
Examina a hipótese de atuação dos diversos modelos de decisão identificados pela teoria organizacional no contexto específico do processo decisório de alocação de recursos orçamentários em instituições universitárias. Aborda especialmente a ação dos modelos de escolha de tipo racional, político e burocrático no processo decisório de alocação orçamentárias às unidades acadêmicas da Universidade Federal do Rio Grande do Norte.
Resumo:
Buscamos aferir ganhos na precificação de opções lançadas sobre a ação Telebrás PN, com a utilização de modelos auto regressivos de volatilidade· condicionada, cujos resultados foram comparados àqueles gerados pelos procedimentos numéricos de volatilidades históricas e implícitas. Nesta tarefa, a dinâmica do estudo levou ao estabelecimento de novos objetivos, que destacamos: a) identificação de modelos mais eficientes para filtragem da média do processo sobre retornos de Telebrás PN, que eventualmente pudessem otimizar o emprego dos modelos da classe ARCH; b) aferir anomalias de mercadodevidas a negociaçõesem dias específicos da semana; c) esclarecer influências exercidas pela sensibilidade dos preços das opções sobre a eficiência dos modelos de volatilidade condicionada, com vista a definir condições para o alcance de resultados práticos no campo da precificação de opções.
Resumo:
o trabalho se refere à avaliação de opções através do modelo conhecido pelo nome de seus autores, Black-Scholes. É descrito o desenvolvimento da teoria de opções, desde os primórdios da existência de mercados organizados deste derivativo, no século XVII, até os mais importantes trabalhos dos primeiros anos da década de 1990. É destacado o papel fundamental da estimação correta dos parâmetros a serem inseridos no modelo de avaliação. Após esta revisão, um teste do modelo Black-Scholes é realizado no mercado de opções sobre ouro da BM&F, utilizando-se mecanismos tradicionais de estimação dos parâmetros e apurando-se a diferença existente entre o valor dado pelo modelo de avaliação e o observado no mercado. Novos mecanismos de apuração dos parâmetros fundamentais, volatilidade e taxa de juros, são propostos, baseados no comportamento das séries históricas a eles referentes. A análise deste comportamento mostra a adequação destas séries à uma classe de modelos econométricos conhecidos como ARCH - Autorregressive Conditiona! Heterocedasticity Mode! . Três novos testes do modelo Black-Scholes no mercado de opções são realizados: o primeiro usando a volatilidade estimada através de um modelo ARCH(1) e a taxa de juros estimada de forma tradicional, o segundo usando a taxa de juros estimada através de um modelo ARCH-M(1) e a volatilidade estimada de forma tradicional e, finalmente, o terceiro, usando a volatilidade estimada através de um modelo ARCH(1) e a taxa de juros estimada através de um modelo ARCH-M(1). As diferenças, nos três casos, entre os valores dados pelo modelo Black-Scholes e os observados no mercado, foram computadas. Os resultados indicaram que o uso da volatilidade estimada através do modelo ARCH(1) melhora a performance do modelo Black-Scholes, perfomance esta medida pelo erro quadrático médio entre os valores dados pelo modelo e os observados no mercado. O mesmo não ocorreu com a utilização da taxa de juros estimada pelo modelo ARCH-M(1), apesar da compatibilidade teórica apresentada entre a série temporal destas taxas e o modelo. O autor acredita que este resultado seja devido à problemas encontrados na estimação dos parâmetros deste modelo ARCH-M(1). Também a inserção conjunta dos dois parâmetros estimados através dos modelos da classe ARCH não foi frutífera, ainda em função dos problemas de estimação dos modelos referentes à taxa de juros. As conclusões básicas do trabalho indicam que as série temporais em estudo são modeláveis e que os modelos da classe ARCH se apresentam como promissores para este fim, ao menos no que tange à volatilidade.
Resumo:
Trata de uma proposta de mensuração de mercado de bens duráveis em nível municipal. O processo de modelagem assume que: a função deve ser determinada a partir do análise do estágio do produto em seu processo de difusão n o mercado, cada município é uma unidade representada p o r variáveis obtidas através d e dados secundários e os dados secundários a serem coletados podem determinados através d o conhecimento d o comportamento de compra do produto. No modelo, os resíduos sã o tratados como ferramenta estratégica mercadológica. É apresentada uma aplicação do modelo para condicionadores de ar
Resumo:
Nas indústrias de processo, algumas variáveis como as composições de topo de colunas de destilação são quantificadas através de análises laboratoriais e ou de analisadores em linha. Este tipo de controle apresenta algumas limitações tais como custos de manutenção e o tempo de amostragem (em geral análises laboratoriais ocorrem de 1 a 3 vezes ao dia). Para melhoria destes métodos, as variáveis podem ser continuamente estimadas a partir de sua relação com as variáveis medidas diretamente no processo. Através de um algoritmo matemático, um analisador virtual de propriedades pode ser construído, sendo necessário para o seu desenvolvimento um modelo simplificado do processo. Este trabalho teve como objetivo a construção de dois analisadores virtuais para estimação das composições de topo de duas colunas fracionadoras de tolueno presentes em uma indústria petroquímica. Para tal, estudou-se as metodologias existentes para construção de analisadores voltados para aplicações em colunas de destilação. O desenvolvimento de analisadores virtuais tem como base três etapas: seleção de variáveis secundárias, construção de modelos e correção/adaptação de modelos. Tais etapas, baseadas principalmente em métodos estatísticos, foram estudadas e as técnicas que melhor se adaptaram ao caso em questão foram empregadas com resultados satisfatórios. Realizaram-se também estudos comparativos entre modelos estacionários e dinâmicos e modelos construídos a partir de dados de simulação e de processo. As simulações foram conduzidas nos softwares Aspen PlusÒ e Aspen DynamicsÒ e o software usado para implementação dos analisadores na indústria foi o Aspen IQÒ.
Resumo:
A lactação é um processo fisiológico complexo que ainda não foi compreendido na sua totalidade. Inúmeros fatores intervêm na síntese e secreção do leite, sendo os mais importantes a nutrição e o metabolismo endógeno dos nutrientes. A qualidade do leite é valorizada tanto pela sua composição química, como pelo conteúdo de células somáticas. No entanto, visando a comercialização do leite, as maiores mudanças e melhoras na qualidade podem ser atingidas através da manipulação da dieta dos animais, em especial em vacas leiteiras de alta produção. Avaliar os processos de absorção de alimentos, bem como o metabolismo catabólico e anabólico direcionado para a síntese do leite, têm sido uma grande preocupação na pesquisa de nutrição e bioquímica da produção animal. O principal objetivo da presente pesquisa foi gerar modelos matemáticos que pudessem explicar a participação de diferentes metabólitos sobre a composição química do leite. Neste intuito foram coletadas amostras de fluído ruminal, sangue, urina e leite de 140 vacas da raça Holandesa nas primeiras semanas de lactação e mantidas sob sistema semi-intensivo de produção e dieta controlada. Os animais foram selecionados de sistemas de produção no ecossistema do Planalto Médio de Rio Grande do Sul e foram amostrados em dois períodos climáticos críticos. No fluido ruminal foram avaliados o pH e o tempo de redução do azul de metileno. No sangue foram determinados os metabólitos: glicose, colesterol, β-hidroxibutirato (BHB), triglicerídeos, fructosamina, ácidos graxos não esterificados (NEFA), proteínas totais, albumina, globulina, uréia, creatinina, cálcio, fósforo e magnésio. As enzimas: aspartato amino transferase (AST), gama glutamil transferase (GGT) e creatina kinase (CK). Os hormônios: cortisol, insulina, triiodotironina (T3), tiroxina (T4), e leptina. Foi efetuado hemograma, para conhecer: hematócrito, hemoglobina, e contagem total e diferencial de células brancas. Na urina foram dosados: corpos cetônicos, pH e densidade. No leite foi determinada: proteína, gordura, lactose, sólidos totais, sólidos não gordurosos, contagem de células somáticas e uréia. Para a determinação de cada um dos metabólitos ou compostos foram usadas técnicas específicas validadas internacionalmente. Os diferentes valores obtidos constituíram os parâmetros básicos de entrada para a construção dos diversos modelos matemáticos executados para predizer a composição do leite. Mediante procedimentos de regressão linear múltipla algoritmo Stepwise, procedimentos de correlação linear simples de Pearson e procedimentos de análise computacional através de redes neurais, foram gerados diferentes modelos para identificar os parâmetros endógenos de maior relevância na predição dos diferentes componentes do leite. A parametrização das principais rotas bioquímicas, do controle endócrino, do estado de funcionamento hepático, da dinâmica ruminal e da excreção de corpos cetônicos aportou informação suficiente para predizer com diferente grau de precisão o conteúdo dos diferentes sólidos no leite. O presente trabalho é apresentado na forma de quatro artigos correspondentes aos parâmetros energéticos, de controle endócrino, modelagem matemática linear múltipla e predição através de Artificial Neural Networks (ANN).
Resumo:
Trata de modelos de avaliação debonds, dentro de uma abordagem evolutiva. Apresenta a evolução das técnicas de precificação desses títulos de renda fixa. Inicialmente discute a abordagem tradicional, que compreende a determinação do valor do fluxo de caixa descontado e a análise de sensibilidade dos preços dos títulós a alterações nas taxas de juros, bem como imunização de carteira de bonds quando seadmite uma estrutura temporal de juros constante. A seguir apresenta as várias formas da curva de juros a vista e as teorias econômicas elaboradas para explicar estas formas. Finalmente, traz modelos dinâmicos de determinação da estrutura temporal de juros, desenvolvidos para tempo contínuo e para tempo discreto.
Resumo:
Estima uma taxa de retorno dos investimentos corporativos e verifica a criação de valor aos acionistas para o período de 1988 a 1999. Avalia as fontes de recursos utilizadas pelas empresas, verificando a influência das mudanças ocorridas no cenário brasileiro referente ao maior acesso das empresas ao mercado internacional de capitais e à estabilização inflacionária. Dadas as imperfeições de mercado, foi testado o modelo "pecking order" contra o "tradeoff", de modo a obter melhor entendimento sobre as decisões de busca de recursos por parte das empresas do setor não financeiro, no Brasil
Resumo:
Discute-se como a assimetria de informações afeta os modelos de precificação de ativos e algumas das consequências para os testes de eficiência. No primeiro capítulo são apresentados dois modelos que partiram da hipótese que os agentes possuem informação completa sobre as variáveis econômicas: o CAPM e o Black-Scholes. No segundo capítulo procura-se verificar até que ponto é possível modelar a economia dadas estas imperfeições. Partindo de uma variação de AkerIoff (1970), mostra-se que quando uma parte de posse de uma informação superior transaciona com outra, ocorre uma falha de mercado, a seleção adversa, podendo até gerar o colapso do mercado. O segundo modelo analisado, Bray (1989), mostra como as informações privilegiadas são incorporadas ao preço e o último modelo, Kyle (1985), analisa como a presença de um agente com informação privilegiada afeta a liquidez do mercado. O terceiro capítulo faz um teste para a eficiência do mercado de câmbio brasileiro. Apesar de não se poder negar a presença de co integração entre as séries, não se pode aceitar a hipótese de eficiência semi-forte, ou seja, a hipótese de que o mercado futuro seria um estimador não viesado para o mercado à vista, o que pode ser interpretado como indicação de informação incompleta ou imperfeita.
Resumo:
Nas últimas décadas, sistemas de suprimento de energia que utilizam recursos renováveis têm sido estudados e empregados como opção para o fornecimento de energia elétrica em comunidades isoladas em áreas remotas. Devido aos avanços da tecnologia fotovoltaica associada à diminuição de custos e maior conhecimento de seu desempenho, os sistemas fotovoltaicos apresentam-se como uma opção promissora. Neste trabalho apresenta-se o desenvolvimento de um programa computacional de dimensionamento e simulação de sistemas fotovoltaicos autônomos na linguagem de programação Visual Basic 5.0, chamado PVSize, capaz de propor, para uma certa configuração de sistema, o número de baterias e módulos com seu risco de déficit de energia. Este programa tem como finalidade facilitar a interação com o usuário, e poderá ser utilizado como uma ferramenta auxiliar no processo de escolha dos elementos do sistema e estabelecer a melhor configuração através de um acompanhamento anual com base horária dos parâmetros envolvidos. Estes elementos são caracterizados através da implementação de modelos matemáticos propostos por diferentes autores que descrevem o seu desempenho individual. A integração destes modelos através de uma metodologia apropriada levou ao desenvolvimento de um programa completo de dimensionamento e simulação de sistemas fotovoltaicos autônomos. O potencial energético solar é obtido a partir de informações das características climatológicas locais, utilizadas para gerar séries de dados de radiação a partir de modelos estatísticos O programa permite projetar sistemas de suprimento de energia elétrica que atenderão cargas comunitárias (iluminação pública e de escolas, bombeamento de água, refrigeração em centros de saúde, irrigação, telecomunicações, e mais) e cargas residenciais (iluminação, refrigeração, lazer, etc.) tornando-se uma ferramenta importante para o projeto de sistemas fotovoltaicos autônomos. A comparação dos valores obtidos através de PVSize e outros programas computacionais desenvolvidos por estabelecimentos conceituados na área apresentou uma ótima concordância. Desta forma fica demonstrada a adequação do PVSize para o dimensionamento e simulação de sistemas fotovoltaicos autônomos.
Resumo:
Resumo não disponível.
Resumo:
O objetivo desta dissertação é analisar o uso de regras ótimas irrestritas e de regras simples restritas de política monetária para a economia brasileira, com especial atenção ao impacto da taxa de câmbio na transmissão da política monetária. As regras foram encontradas através de um processo de programação dinâmica e comparadas em termos da eficiência econômica de cada uma, medida pela redução da variância do produto e da inflação. Estes resultados serviram de referência para avaliar o desempenho do regime de metas de inflação no Brasil, desde a sua implementação em julho de 1999.
Resumo:
Este trabalho estuda a lucratividade dos modelos de Análise Técnica no mercado de câmbio brasileiro. Utilizando a metodologia de White (2000) para testar 1712 regras geradas a partir de quatro modelos de Análise Técnica verifica-se que a melhor regra não possui poder de previsibilidade significante ao se considerar os efeitos de data-snooping. Os resultados indicam que o mercado de câmbio brasileiro está de acordo com a hipótese de mercado eficiente sugerida pela literatura.
Resumo:
Este trabalho tem por objetivo propor uma carteira composta por posições compradas e vendidas de ações que supere os principais Índices de mercado. O resultado é obtido através de um modelo de Lógica Fuzzy, que é um modelo de inteligência artificial que trata os dados de maneira lógica, ou seja, sem relacionar as variáveis através de modelos matemáticos convencionais. Para esse estudo utilizamos como variáveis de entrada os múltiplos Preço/Lucro Esperado e Preço/Valor Patrimonial da Empresa de cada ação considerada. Foram estudadas as ações do mercado americano pertencentes ao índice S&P 500, do ano de 2000 até 2007. Com o intuito de comparar a eficiência do Modelo de Lógica Fuzzy, utilizamos o modelo de Regressão Linear Multivariada e os índices de mercado S&P 500 e o S&P 500 com uma modificação para se adequar aos dados escolhidos para o estudo. O modelo proposto produziu resultados satisfatórios. Para quase todos os anos estudados o retorno da carteira obtida foi muito superior ao dos Índices de mercado e do modelo linear convencional. Através de testes adequados comprovamos estatisticamente a eficiência do modelo em comparação aos Índices de mercado e ao modelo linear convencional.
Resumo:
Neste trabalho é discutido o impacto causado pelos parâmetros de processo com comportamento estocástico em um modelo de otimização, aplicado ao planejamento mineiro. Com base em um estudo de caso real, construiu-se um modelo matemático representando o processo produtivo associado à mineração, beneficiamento e comercialização de carvão mineral. Este modelo foi otimizado com a técnica de programação linear, sendo a solução ótima perturbada pelo comportamento estocástico de um dos principais parâmetros envolvidos no processo produtivo. A análise dos resultados permitiu avaliar o risco associado à decisão ótima, sendo com isto proposta uma metodologia para avaliação do risco operacional.