863 resultados para Biologia - Modelos matemáticos


Relevância:

90.00% 90.00%

Publicador:

Resumo:

La gestión del riesgo de liquidez es fundamental en las instituciones de seguridad social como el ISSFA -más aún cuando sus fuentes de ingreso dependen exclusivamente de la caja fiscal-, cuyo fondo de liquidez estructurado con parte de sus reservas, se mantienen en inversiones en el sistema financiero con rendimientos reales negativos por aplicación normativa del Banco Central. La presente investigación de carácter descriptivo, analiza el comportamiento de las prestaciones y del fondo de liquidez en el periodo 2012-2014, identificando ineficiencias en el uso de los recursos producto de la metodología presupuestaria utilizada para determinar el monto del fondo, por lo que se plantea la aplicación de modelos como el VaR Paramétrico, VaR Histórico y de volatilidad condicional GARCH, para el cálculo del máximo requerimiento de liquidez como base para la definición de un fondo óptimo. Se aplican los modelos sobre la serie de diferencias logarítmicas de los pagos diarios de la prestación de salud del periodo 2010-2014, que presenta alta volatilidad afectada por la naturaleza estocástica de la contingencia que genera la prestación y por factores de riesgo operativo, siendo necesario un ajuste a la fórmula del VaR por cuanto no se calcula la máxima pérdida esperada sino el máximo requerimiento de liquidez. El VaR Paramétrico y el VaR Histórico no generan resultados consistentes sobreestimado el requerimiento de liquidez. El VaR calculado con la esperanza y varianza estimados con el modelo GARCH, tiene un mejor ajuste con los datos reales ya que captura eventos de alta y baja volatilidad, permite reducir en un 84,3% el nivel de excedentes de liquidez observado en el periodo 2012-2014 en la seguridad social militar lo que favorecería la capitalización de sus reservas, siendo una base adecuada para la determinación del fondo de liquidez tomando como referencia el valor mínimo del coeficiente de cobertura de liquidez que recomienda el Comité de Basilea para la gestión del riesgo de liquidez, por lo que se recomienda el uso de este modelo.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Neste trabalho, uma versão analítica do método de ordenadas discretas é usada para desenvolver soluções para alguns problemas da dinÂmica de gases rarefeitos, baseado em um modelo com freqüência de colisão variável (modelo CLF) da equação de Boltzmann linearizada. Em particular, resultados numéricos obtidos para os problemas de salto de temperatura, fluxo de Poiseuille, fluxo de Couette, Kramers, creep-térmico e deslizamento térmico são apresentados e discutidos.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

A motivação deste trabalho é relacionar a teoria da estatística com uma clássica aplicação prática na indústria, mais especificamente no mercado financeiro brasileiro. Com o avanço de hardware, sistemas de suporte à decisão se tornaram viáveis e desempenham hoje papel fundamental em muitas áreas de interesse como logística, gestão de carteiras de ativos, risco de mercado e risco de crédito. O presente trabalho tem como objetivos principais propor uma metodologia de construção de modelos de escoragem de crédito e mostrar uma aplicação prática em operações de empréstimo pessoal com pagamento em cheques. A parte empírica utiliza dados reais de instituição financeira e duas metodologias estatísticas, análise de regressão linear múltipla e análise de regressão probit. São comparados os resultados obtidos a partir da aplicação de modelos de escoragem de crédito desenvolvidos com cada metodologia com os resultados obtidos sem a utilização de modelos. Assim, demonstra-se o incremento de resultado da utilização de modelos de escoragem e conclui-se se há ou não diferenças significativas entre a utilização de cada metodologia. A metodologia de construção de modelos de escoragem é composta basicamente por duas etapas, definição das relações e da equação para cálculo do escore e a definição do ponto de corte. A primeira consiste em uma busca por relações entre as variáveis cadastrais e de comportamento do cliente, variáveis da operação e o risco de crédito caracterizado pela inadimplência. A segunda indica o ponto em que o risco deixa de ser interessante e o resultado esperado da operação passa a ser negativo. Ambas as etapas são descritas com detalhes e exemplificadas no caso de empréstimos pessoais no Brasil. A comparação entre as duas metodologias, regressão linear e regressão probit, realizada no caso de empréstimos pessoais, considerou dois aspectos principais dos modelos desenvolvidos, a performance estatística medida pelo indicador K-S e o resultado incremental gerado pela aplicação do modelo. Foram obtidos resultados similares com ambas as metodologias, o que leva à conclusão de que a discussão de qual das duas metodologias utilizar é secundária e que se deve tratar a gestão do modelo com maior profundidade.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Esta tese é composta por três artigos, cada um deles correspondendo a um capítulo. Embora cada capítulo verse sobre assuntos distintos, existe a mesma preocupação em todos eles com a correta construção de modelos econométricos agregados a partir de modelos de decisão individual. Em outras palavras, o tema unificador é a preocupação em, ao usar dados agregados, levar em consideração a heterogeneidade dos indivíduos no processo de agregação dos mesmos.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Neste trabalho, nos propomos a estudar o desenvolvimento teórico de alguns modelos matemáticos básicos de doenças infecciosas causadas por macroparasitas, bem como as dificuldades neles envolvidas. Os modelos de transmissão, que descrevemos, referem-se ao grupo de parasitas com transmissão direta: os helmintos. O comportamento reprodutivo peculiar do helminto dentro do hospedeiro definitivo, no intuito de produzir estágios que serão infectivos para outros hospedeiros, faz com que a epidemiologia de infecções por helmintos seja fundamentalmente diferente de todos os outros agentes infecciosos. Uma característica importante nestes modelos é a forma sob a qual supõe-se que os parasitas estejam distribuídos nos seus hospedeiros. O tamanho da carga de parasitas (intensidade da infecção) em um hospedeiro é o determinante central da dinâmica de transmissão de helmintos, bem como da morbidade causada por estes parasitas. Estudamos a dinâmica de parasitas helmintos de ciclo de vida direto para parasitas monóicos (hermafroditas) e também para parasitas dióicos (machos-fêmeas) poligâmicos, levando em consideração uma função acasalamento apropriada, sempre distribuídos de forma binomial negativa. Através de abordagens analítica e numérica, apresentamos a análise de estabilidade dos pontos de equilíbrio do sistema. Cálculos de prevalências, bem como de efeitos da aplicação de agentes quimioterápicos e da vacinação, no controle da transmissão e da morbidade de parasitas helmintos de ciclo de vida direto, também são apresentados neste trabalho.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

o trabalho se refere à avaliação de opções através do modelo conhecido pelo nome de seus autores, Black-Scholes. É descrito o desenvolvimento da teoria de opções, desde os primórdios da existência de mercados organizados deste derivativo, no século XVII, até os mais importantes trabalhos dos primeiros anos da década de 1990. É destacado o papel fundamental da estimação correta dos parâmetros a serem inseridos no modelo de avaliação. Após esta revisão, um teste do modelo Black-Scholes é realizado no mercado de opções sobre ouro da BM&F, utilizando-se mecanismos tradicionais de estimação dos parâmetros e apurando-se a diferença existente entre o valor dado pelo modelo de avaliação e o observado no mercado. Novos mecanismos de apuração dos parâmetros fundamentais, volatilidade e taxa de juros, são propostos, baseados no comportamento das séries históricas a eles referentes. A análise deste comportamento mostra a adequação destas séries à uma classe de modelos econométricos conhecidos como ARCH - Autorregressive Conditiona! Heterocedasticity Mode! . Três novos testes do modelo Black-Scholes no mercado de opções são realizados: o primeiro usando a volatilidade estimada através de um modelo ARCH(1) e a taxa de juros estimada de forma tradicional, o segundo usando a taxa de juros estimada através de um modelo ARCH-M(1) e a volatilidade estimada de forma tradicional e, finalmente, o terceiro, usando a volatilidade estimada através de um modelo ARCH(1) e a taxa de juros estimada através de um modelo ARCH-M(1). As diferenças, nos três casos, entre os valores dados pelo modelo Black-Scholes e os observados no mercado, foram computadas. Os resultados indicaram que o uso da volatilidade estimada através do modelo ARCH(1) melhora a performance do modelo Black-Scholes, perfomance esta medida pelo erro quadrático médio entre os valores dados pelo modelo e os observados no mercado. O mesmo não ocorreu com a utilização da taxa de juros estimada pelo modelo ARCH-M(1), apesar da compatibilidade teórica apresentada entre a série temporal destas taxas e o modelo. O autor acredita que este resultado seja devido à problemas encontrados na estimação dos parâmetros deste modelo ARCH-M(1). Também a inserção conjunta dos dois parâmetros estimados através dos modelos da classe ARCH não foi frutífera, ainda em função dos problemas de estimação dos modelos referentes à taxa de juros. As conclusões básicas do trabalho indicam que as série temporais em estudo são modeláveis e que os modelos da classe ARCH se apresentam como promissores para este fim, ao menos no que tange à volatilidade.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Trata de modelos de avaliação debonds, dentro de uma abordagem evolutiva. Apresenta a evolução das técnicas de precificação desses títulos de renda fixa. Inicialmente discute a abordagem tradicional, que compreende a determinação do valor do fluxo de caixa descontado e a análise de sensibilidade dos preços dos títulós a alterações nas taxas de juros, bem como imunização de carteira de bonds quando seadmite uma estrutura temporal de juros constante. A seguir apresenta as várias formas da curva de juros a vista e as teorias econômicas elaboradas para explicar estas formas. Finalmente, traz modelos dinâmicos de determinação da estrutura temporal de juros, desenvolvidos para tempo contínuo e para tempo discreto.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Discute-se como a assimetria de informações afeta os modelos de precificação de ativos e algumas das consequências para os testes de eficiência. No primeiro capítulo são apresentados dois modelos que partiram da hipótese que os agentes possuem informação completa sobre as variáveis econômicas: o CAPM e o Black-Scholes. No segundo capítulo procura-se verificar até que ponto é possível modelar a economia dadas estas imperfeições. Partindo de uma variação de AkerIoff (1970), mostra-se que quando uma parte de posse de uma informação superior transaciona com outra, ocorre uma falha de mercado, a seleção adversa, podendo até gerar o colapso do mercado. O segundo modelo analisado, Bray (1989), mostra como as informações privilegiadas são incorporadas ao preço e o último modelo, Kyle (1985), analisa como a presença de um agente com informação privilegiada afeta a liquidez do mercado. O terceiro capítulo faz um teste para a eficiência do mercado de câmbio brasileiro. Apesar de não se poder negar a presença de co integração entre as séries, não se pode aceitar a hipótese de eficiência semi-forte, ou seja, a hipótese de que o mercado futuro seria um estimador não viesado para o mercado à vista, o que pode ser interpretado como indicação de informação incompleta ou imperfeita.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Este trabalho estuda a lucratividade dos modelos de Análise Técnica no mercado de câmbio brasileiro. Utilizando a metodologia de White (2000) para testar 1712 regras geradas a partir de quatro modelos de Análise Técnica verifica-se que a melhor regra não possui poder de previsibilidade significante ao se considerar os efeitos de data-snooping. Os resultados indicam que o mercado de câmbio brasileiro está de acordo com a hipótese de mercado eficiente sugerida pela literatura.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Este trabalho tem por objetivo propor uma carteira composta por posições compradas e vendidas de ações que supere os principais Índices de mercado. O resultado é obtido através de um modelo de Lógica Fuzzy, que é um modelo de inteligência artificial que trata os dados de maneira lógica, ou seja, sem relacionar as variáveis através de modelos matemáticos convencionais. Para esse estudo utilizamos como variáveis de entrada os múltiplos Preço/Lucro Esperado e Preço/Valor Patrimonial da Empresa de cada ação considerada. Foram estudadas as ações do mercado americano pertencentes ao índice S&P 500, do ano de 2000 até 2007. Com o intuito de comparar a eficiência do Modelo de Lógica Fuzzy, utilizamos o modelo de Regressão Linear Multivariada e os índices de mercado S&P 500 e o S&P 500 com uma modificação para se adequar aos dados escolhidos para o estudo. O modelo proposto produziu resultados satisfatórios. Para quase todos os anos estudados o retorno da carteira obtida foi muito superior ao dos Índices de mercado e do modelo linear convencional. Através de testes adequados comprovamos estatisticamente a eficiência do modelo em comparação aos Índices de mercado e ao modelo linear convencional.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

O objetivo deste trabalho é o desenvolvimento de uma ferramenta de regressão multivariável apropriada para abordar o problema da modelagem de propriedades relacionadas à qualidade final de produtos em processos industriais. No caso geral, dados provenientes de sistemas físicos e químicos típicos do meio industrial são caracterizados pela presença de relação não linear entre as variáveis, podendo, ainda, apresentar outros problemas que dificultam o processo de modelagem empírica, como baixa disponibilidade de observações experimentais, presença de ruído excessivo nas medidas e a presença de colinearidade entre os termos explicativos. Foi feita uma revisão de diferentes métodos de regressão multivariável tais como regressão linear múltipla (MLR), regressão não linear baseada em transformações das variáveis explicativas e métodos de redução de dimensionalidade (PCA, PLS, QPLS e BTPLS). Também foram propostas novas metodologias para a abordagem das questões da seleção de variáveis e estimação das incertezas dos modelos. Posteriormente, utilizando as metodologias revisadas e propostas, foi sugerida uma sistemática para o tratamento da questão da modelagem empírica de dados industriais, que constitui a base para a implementação da ferramenta desejada. A aplicabilidade da ferramenta desenvolvida foi ilustrada através de alguns estudos de caso retirados da literatura, onde modelos para a predição de propriedades relativas à qualidade de produtos produzidos em quatro tipos de processos industriais diferentes são obtidos.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Neste trabalho, desenvolveram-se modelos matemáticos simplificados para o cálculo de duas variáveis importantes no estudo da extrusão de polímeros: vazão mássica (M&) e pressão na saída da extrusora (Psaída), em função das propriedades dos materiais e das condições de operação do equipamento. Podem-se utilizar esses modelos como ferramentas simples para a definição de critérios de ajustes que se devem fazer em uma extrusora de parafuso único para obter-se o desempenho desejado quando se alimenta o equipamento com um novo material. Para desenvolverem-se os modelos simplificados, utilizaram-se dados experimentais da extrusão de poliestireno (PS) e de polipropileno (PP), bem como resultados preditos por um programa computacional de simulação de extrusão disponível comercialmente. Mediram-se os dados experimentais de vazão mássica e de pressão na saída da extrusora em um equipamento de parafuso único de 45 mm de diâmetro. Realizaram-se esses testes, variando-se a velocidade de rotação do parafuso de 70 a 100 rpm para ambos os polímeros. No primeiro conjunto de simulações, utilizou-se o simulador Flow 2000 (Compuplast Inc.) para ajustarem-se os valores preditos de M& e de Psaída aos dados obtidos experimentalmente através da estimação dos fatores de atrito barril-polímero tanto para o PP quanto para o PS. Posteriormente, realizou-se um planejamento de experimentos, do tipo fatorial fracionado , para obter-se um segundo conjunto de simulações, considerando-se as propriedades dos materiais (reológicas e térmicas) e as condições de operação da extrusora (velocidade de rotação do parafuso e perfil de temperatura nas zonas de aquecimento da extrusora) como fatores de investigação. Com as novas simulações no Flow 2000, ajustaram-se os parâmetros dos modelos simplificados aos valores de vazão mássica e de pressão na saída da extrusora preditos no simulador. Elaboraram-se os modelos simplificados levando-se em conta as interações entre os fatores cujos efeitos consideraram-se significativos nas análises de variância (ANOVA). Obteve-se um modelo linear com 37 termos para o cálculo da vazão mássica e um modelo linear com 41 termos para o cálculo da pressão na saída da extrusora. Posteriormente, aplicou-se uma técnica de regressão multivariável para selecionar apenas os termos importantes dessas 1402IV2− XVI equações, conduzindo a um modelo linear com 10 termos para o cálculo da vazão mássica e a um modelo com 6 termos para o cálculo da pressão na saída da extrusora. Conseguiu-se boa concordância entre os dados experimentais e os valores preditos quando se aplicaram os modelos simplificados.