969 resultados para Probabilidade de default


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Passarelas de pedestres com arquitetura moderna, esbeltas e leves são uma constante nos dias atuais, apresentando grandes vãos e novos materiais. Este arrojo arquitetônico tem gerado inúmeros problemas de vibrações excessivas, especialmente sobre passarelas mistas (aço-concreto). As normas e recomendações de projeto consideram, ainda, que as forças induzidas pelo caminhar humano são determinísticas. Todavia, o caminhar humano e as respectivas forças dinâmicas geradas apresentam comportamento randômico. Deste modo, o presente trabalho de pesquisa objetiva contribuir com os projetistas estruturais, a partir do emprego de uma abordagem probabilística para avaliação do estado limite de utilização deste tipo de estrutura, associado a vibrações excessivas que podem vir a causar desconforto humano. Para tal, utiliza-se como modelo estrutural uma passarela de pedestres mista (aço-concreto) construída no campus do Instituto de Traumatologia e Ortopedia (INTO), na cidade do Rio de Janeiro. Com base na utilização dos métodos probabilísticos, torna-se possível determinar a probabilidade dos valores das acelerações de pico da estrutura ultrapassarem ou não os critérios de conforto humano estabelecidos em normas e recomendações de projeto. Os resultados apontam para o fato de que os valores das acelerações de pico calculadas com base exclusivamente nos métodos determinísticos podem ser superestimados em algumas situações de projeto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Estudos envolvendo estimativas de parâmetros populacionais de cetáceos baseados em dados de foto-identificação têm crescido ao longo dos anos, possibilitando estimar parâmetros como abundância, sobrevivência, probabilidade de captura e padrões de emigração. No Brasil, ainda são poucos os estudos com cetáceos que utilizam essa abordagem, contudo, eles estão aumentando, principalmente com a espécie Sotalia guianensis (van Bénéden, 1864), conhecida como boto-cinza. O objetivo desse trabalho foi estimar a sobrevivência, a probabilidade de captura, a emigração e a abundância da população de botos-cinza na Baía de Paraty (RJ; 2307S 4433W), utilizando modelos de marcação-recaptura baseados em dados de foto-identificação, entre os anos de 2005 e 2009. Os cruzeiros foram realizados entre agosto de 2005 e julho de 2009 com uma embarcação de 26 pés e motor de 200hp. As fotografias das nadadeiras dorsais foram tomadas com a utilização de uma câmera digital Canon 20D equipada com lente de zoom 100-400mm. Foram realizadas 60 saídas de campo na Baía de Paraty totalizando 172 horas de esforço no campo, sendo 72 horas de esforço fotográfico. Nas 42 saídas com observação de botos-cinza foram efetuadas 27.892 fotografias e, destas, 6.612 (23,7%) foram consideradas adequadas e utilizadas na identificação dos indivíduos de boto-cinza. Um total de 621 indivíduos foi catalogado com base em marcas permanentes na nadadeira dorsal. Os históricos individuais de captura foram analisados no programa MARK. A estimativa de sobrevivência variou de 0,82 ( 0,05) a 0,85 ( 0,05) e a probabilidade de captura variou de 0,16 ( 0,04) a 0,40 ( 0,06). O número de indivíduos marcados na população estimado pelo modelo de Jolly-Seber foi de N = 586 ( 114,66) (IC: 361-811). A proporção de animais marcados na população para o modelo de JS foi de 0,66 ( 0,03). A partir desse valor, foi possível obter uma abundância total de 884 indivíduos ( 176,8) (IC: 602-1296). A probabilidade de emigração temporária (γ``) e de permanecer fora da área (γ`) foi de 0,43 ( 0,07) e a probabilidade de captura/recaptura variou de 0,01 ( 0,01) a 0,42 ( 0,05). A probabilidade de permanência na área (1 - γ``), assim como a probabilidade de retorno da emigração temporária (1 - γ`) foi 0,57. Apesar dos movimentos significativos de indivíduos transientes, uma vez que a área amostrada é menor do que as áreas de vida que se tem estimadas para o boto-cinza, os dados indicam uma residência moderada dos botos-cinza. A abundância anual total variou de 325 para o ano de 2005 a 448 para o ano de 2009. A análise de poder determinou que seriam necessários nove anos de estudo para observar uma tendência de queda de 5% no tamanho da população. Os resultados reforçam que a Baía de Paraty abriga uma das maiores populações já estimadas para Sotalia guianensis.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Estima-se que a prevalência global da população mundial com hepatite C é de 3%. Pouco se sabe sobre a resposta ao tratamento com respeito à resistência viral. Algumas mutações no fragmento de 109 aminoácidos da NS5B são associadas com resistência ao interferon (IFN) e ribavirina (RBV). Estudos moleculares e clínicos identificaram fatores associados com o hospedeiro e vírus relacionados associada com a resposta ao tratamento, tal como o gene que codifica a IL-28B. Este estudo foi dividido em duas fases, cujos objetivos foram caracterizar a frequência de mutações que conferem resistência ao HCV e avaliar a relevância das mutações em pacientes Respondedores (R) ou Não Respondedores (NR) ao tratamento e caracterizar geneticamente as populações sobre polimorfismos genéticos nos SNPs da IL-28B em relação ao prognóstico da resposta ao tratamento. As amostras dos pacientes foram submetidas a testes de genotipagem e carga viral. As sequências geradas foram comparadas no BLAST e no banco de dados Los Alamos HCV. Realizamos o alinhamento das sequências homólogas e as mutações identificadas. Com base no genótipo e carga viral determinamos a classificação dos pacientes de acordo com a resposta à terapia. O DNA genômico foi isolado a partir de sangue periférico para a realização da tipagem de SNPs de IL-28B. A metodologia utilizada foi de PCR em tempo real utilizando sondas TaqMan SNP específico. A análise dos dados foi realizada utilizando GraphPad Prism com qui-quadrado, risco relativo (RR), Odds Ratio (OR) e intervalo de confiança de 95%, com um nível de significância de P <0,05. Foi encontrado na primeira fase deste estudo uma taxa significativa mutações associadas ao tratamento nas amostras estudadas. A prevalência de mutações associadas à resistência ao IFN e RBV bem como a novos medicamentos antivirais localizados no fragmento de 109 aminoácidos da NS5B foi examinado em 69 indivíduos infectados naïve no Rio de Janeiro, Brasil. Na segunda fase, as mutações foram clinicamente relevantes. Desde então, procuramos observar as diferenças entre melhor ou pior prognóstico de acordo com a imunogenética que mostrou diferenciação entre os grupos R e NR ao tratamento em relação ao prognóstico da resposta terapêutica. Quando as diferenças entre as sequências da NS5B e a resposta ao tratamento foram consideradas verificou-se que associada a mutação R254K, estava a C316N que poderia conduzir a uma não resposta à terapia no genótipo 1b. Os nossos dados também suportaram forte associação de IL-28B rs12979860, com elevada probabilidade de resposta à terapia de IFN + RBV. Nossos dados evidenciam a presença de pacientes virgens de tratamento que abrigam mutações de resistência previamente descritas na literatura. A análise dos fatores preditores de resposta virológica mostrou que a predição de boa resposta ou não ao tratamento e ainda da progressão da doença é dependente de uma importante interação entre a genética viral e a do hospedeiro. Fato este importante para que no momento de avaliação de diagnóstico e conduta terapêutica, o médico possa tomar medidas apropriadas para o tratamento de cada paciente individualmente independentemente do genótipo do HCV em questão.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As técnicas de injeção de traçadores têm sido amplamente utilizadas na investigação de escoamentos em meios porosos, principalmente em problemas envolvendo a simulação numérica de escoamentos miscíveis em reservatórios de petróleo e o transporte de contaminantes em aquíferos. Reservatórios subterrâneos são em geral heterogêneos e podem apresentar variações significativas das suas propriedades em várias escalas de comprimento. Estas variações espaciais são incorporadas às equações que governam o escoamento no interior do meio poroso por meio de campos aleatórios. Estes campos podem prover uma descrição das heterogeneidades da formação subterrânea nos casos onde o conhecimento geológico não fornece o detalhamento necessário para a predição determinística do escoamento através do meio poroso. Nesta tese é empregado um modelo lognormal para o campo de permeabilidades a fim de reproduzir-se a distribuição de permeabilidades do meio real, e a geração numérica destes campos aleatórios é feita pelo método da Soma Sucessiva de Campos Gaussianos Independentes (SSCGI). O objetivo principal deste trabalho é o estudo da quantificação de incertezas para o problema inverso do transporte de um traçador em um meio poroso heterogêneo empregando uma abordagem Bayesiana para a atualização dos campos de permeabilidades, baseada na medição dos valores da concentração espacial do traçador em tempos específicos. Um método do tipo Markov Chain Monte Carlo a dois estágios é utilizado na amostragem da distribuição de probabilidade a posteriori e a cadeia de Markov é construída a partir da reconstrução aleatória dos campos de permeabilidades. Na resolução do problema de pressão-velocidade que governa o escoamento empregase um método do tipo Elementos Finitos Mistos adequado para o cálculo acurado dos fluxos em campos de permeabilidades heterogêneos e uma abordagem Lagrangiana, o método Forward Integral Tracking (FIT), é utilizada na simulação numérica do problema do transporte do traçador. Resultados numéricos são obtidos e apresentados para um conjunto de realizações amostrais dos campos de permeabilidades.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho estima, utilizando dados trimestrais de 1999 a 2011, o impacto dinâmico de um estímulo fiscal no Brasil sobre as principais variáveis macroeconômicas Brasileiras. Na estimativa dos impactos permitiu-se que as expectativas dos agentes econômicas fossem afetadas pela existência e probabilidade de alternância de regimes (foram detectados dois regimes) na política monetária do país. Os parâmetros da regra da política monetária, nos dois regimes detectados, foram estimados através de um modelo - composto apenas pela equação da regra da política monetária - que permite uma mudança de regime Markoviana. Os parâmetros do único regime encontrado para a política fiscal foram estimados por um modelo Vetorial de Correção de Erros (Vector Error Correction Model - VEC), composto apenas pelas variáveis pertencentes à regra da política fiscal. Os parâmetros estimados, para os diversos regimes das políticas monetária e fiscal, foram utilizados como auxiliares na calibragem de um modelo de equilíbrio geral estocástico dinâmico (MEGED), com mudanças de regime, com rigidez nominal de preços e concorrência monopolística (como em Davig e Leeper (2011)). Após a calibragem do MEGED os impactos dinâmicos de um estímulo fiscal foram obtidos através de uma rotina numérica (desenvolvida por Davig e Leeper (2006)) que permite obter o equilíbrio dinâmico do modelo resolvendo um sistema de equações de diferenças de primeira ordem expectacionais dinâmicas não lineares. Obtivemos que a política fiscal foi passiva durante todo o período analisado e que a política monetária foi sempre ativa, porém sendo em determinados momentos menos ativa. Em geral, em ambas as combinações de regimes, um choque não antecipado dos gastos do governo leva ao aumento do hiato do produto, aumento dos juros reais, redução do consumo privado e (em contradição com o resultado convencional) redução da taxa de inflação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A concessão de crédito a empresas que participam do mercado consiste na entrega de um ativo em determinado momento, com a promessa de pagamento deste bem ou direito em data futura. Tal situação se configura como um evento incerto, pois existe a possibilidade de que tal obrigação não seja honrada pela promitente compradora, originando desta forma, o risco de crédito. Cabe à parte concessora do ativo que origina o risco de crédito, verificar a capacidade de seu cliente em cumprir o compromisso futuro assumido, analisando as variáveis que sugerem o sucesso da operação de crédito. As empresas que se encontram em fase de implantação caracterizam-se não somente pela ausência de histórico das variáveis acima, como também pelo aumento considerável do risco de continuidade. Tal situação é comprovada por pesquisas realizadas em empresas com até cinco anos de atuação. A impossibilidade na mensuração da capacidade de crédito proporcionada por este cenário, ocasiona severa restrição creditícia às empresas novas, principalmente ao crédito de longo prazo, imprescindível nesta fase de investimentos. Entretanto, esta restrição não se verifica em empresas de franquia, cujo empreendedor tem o privilégio de iniciar seu negócio com linhas de crédito de investimentos já prontas no mercado com esta finalidade. Este estudo objetiva identificar quais as características presentes em empresas franqueadas que permitem a concessão de crédito segura na fase de implantação por parte das instituições financeiras e se tais características podem discriminar variáveis que são determinantes no sucesso da franqueada proponente ao crédito bancário. A aplicação de análise fatorial em banco de dados com empresas de franquia permitiu identificar com sucesso um grupo de sete principais variáveis principais, que serviram de base a um modelo de regressão logística e análise discriminante. O modelo de regressão logística mostrou-se bom para a melhora da probabilidade de acerto de empresas solventes ao passo que a análise discriminante não apresentou melhora nesses resultados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Essa pesquisa teve como objetivo analisar a aplicabilidade de uma metodologia de investigação das disfunções existentes no conjunto de dados eleitorais de uma eleição para cargo majoritário no Brasil. O desenvolvimento e a rápida expansão da teoria descoberta por Newcomb-Benford, conhecida como Lei de Benford, bastante difundida por Mark J. Nigrini, Ph.D. no meio contábil, com a utilização de testes estatísticos, despertou o interesse por esta pesquisa. Vislumbrou-se a possibilidade de reduzir o risco de fraude eleitoral através da utilização da análise digital. Entretanto, é necessário adotar procedimentos mais acurados para que possíveis erros de aplicação do método analisado não acabem inviabilizando os efeitos benéficos trazidos pelo mesmo. A probabilidade de ocorrência do erro tipo I alarme falso pode levar ao aumento de custo na análise dos dados. Um dos maiores problemas encontrados em auditorias, contábeis ou não, diz respeito à falha na obtenção de evidências. No Brasil, a partir da utilização de sistema de processamento eletrônico de votação, houve um aumento da preocupação com a fraude, visto que não existe ainda um procedimento que permita verificar, por trilha de auditoria, a confiabilidade dos dados eleitorais. Para atingir o objetivo da pesquisa, foi realizada a aplicação do método estudado em um conjunto de dados relativos à eleição para cargo majoritário Presidente da República do Brasil - no ano de 2010, e a posterior análise dos resultados obtidos. Então, a partir dos resultados obtidos, pode-se sugerir a aplicabilidade da Lei de Benford, em especial o teste do 2 dígito, para a detecção de manipulação ou fraude no conjunto de dados eleitorais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A presente dissertação trata da estipulação de limite de crédito para empresas clientes, de modo automático, com o uso de técnicas de Inteligência Computacional, especificamente redes neurais artificiais (RNA). Na análise de crédito as duas situações mais críticas são a liberação do crédito, de acordo com o perfil do cliente, e a manutenção deste limite ao longo do tempo de acordo com o histórico do cliente. O objeto desta dissertação visa a automação da estipulação do limite de crédito, implementando uma RNA que possa aprender com situações já ocorridas com outros clientes de perfil parecido e que seja capaz de tomar decisões baseando-se na política de crédito apreendida com um Analista de Crédito. O objetivo é tornar o sistema de crédito mais seguro para o credor, pois uma análise correta de crédito de um cliente reduz consideravelmente os índices de inadimplência e mantém as vendas num patamar ótimo. Para essa análise, utilizouse a linguagem de programação VB.Net para o sistema de cadastro e se utilizou do MatLab para treinamento das RNAs. A dissertação apresenta um estudo de caso, onde mostra a forma de aplicação deste software para a análise de crédito. Os resultados obtidos aplicando-se as técnicas de RNAs foram satisfatórias indicando um caminho eficiente para a determinação do limite de crédito.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As leishmanioses são doenças consideradas antropozoonoses, ou seja, doenças primárias de animais que podem ser transmitidas ao homem. São causadas por microorganismos do gênero Leishmania e transmitidas através da picada de flebotomíneos, que são insetos alados da ordem Diptera (mesmo grupo das moscas, mosquitos e borrachudos). Apresentam-se sob duas formas clínicas: Leishmaniose Visceral ou Calazar (LV) e Leishmaniose Tegumentar Americana (LTA). As leishmanioses apresentam distribuição geográfica vasta pelo Velho e Novo Mundo, sendo estimado dessa maneira que aproximadamente 350 milhões de pessoas estejam sob iminente risco de contrair algum tipo de leishmaniose. No Brasil, as leishmanioses são encontradas em todas as unidades federadas, e o estado do Rio de Janeiro vem apresentando franca expansão dessas doenças em áreas urbanas, devido principalmente ao desmatamento ocasionado pela expansão não planejada da malha urbana. Nesse contexto, faz-se necessário desenvolver estudos sobre o espaço e o processo saúde-doença, relação estabelecida pela Geografia da Saúde, a fim de que se compreenda a correlação entre o homem e o ambiente vivido.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A carcinogênese epitelial ovariana tem sido foco de estudos científicos em todo o mundo desenvolvido. A angiogênese tumoral ovariana é um processo multifatorial que resulta em vários produtos pró-angiogênicos. Entre eles, o fator de crescimento vascular endotelial (VEGF) é predominante. Os objetivos deste estudo foram relacionar as dosagens do VEGF dos fluidos peritoneais, do plasma periférico e do infundíbulo pélvico aos níveis de citorredução em pacientes operadas de adenocarcinoma epitelial de ovário (CEO); formular um modelo probabilístico de citorredução e utilizar estas dosagens para estimar a probabilidade do desfecho de citorredução. Além disto, foi criada uma nova variável chamada carga de VEGF. Pelo procedimento step-wise a citorredução foi melhor descrita pela carga de VEGF, mas faltou Normalidade aos resíduos, não sendo possível a adequação de um modelo matemático. Porém, a curva ROC, forneceu uma área sob a curva de 0,84, com sensibilidade de 71,4 % e especificidade variando de 69,5 a 73,9%. O ponto de corte ótimo foi 15,52 log de picograma de carga de VEGF. A odds-ratio (OR) calculada para citorredução ótima descrita pela carga de VEGF foi de 11 (IC= 2,59 ; 46,78). No grupo com estágio avançado (III e IV), a OR foi de 6 (IC= 1,15; 31,22). Apesar do pequeno número de casos, esta nova variável pode vir a ser um auxiliar na determinação de situações onde cirurgia citorredutora deixa de ser a pedra fundamental do tratamento primário do CEO e a indução quimioterápica passe a ter o principal papel na citorredução química antes da cirugia nestes casos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A abrangente constitucionalização, o acesso ao direito, ainda que incipiente, no Brasil, o dinamismo de uma sociedade massificada e o fluxo quase instantâneo de informações e de ideias colocaram e vem colocando em xeque o Estado enquanto provedor dos direitos básicos e, dentre eles, o acesso à justiça e a correlata função jurisdicional. Autorizado magistério doutrinário vislumbrou, como se verá, apresentar o sistema brasileiro, no que concerne à estabilização da relação processual, em específico, mais desvantagens do que vantagens. Entreviu-se, assim, oportunidade de uma revisitação do sistema processual, aproveitando-se a legislação e ideário vigentes, em uma perspectiva mais profícua e no intuito de se conferir tudo aquilo e exatamente aquilo que se busca pelo processo, enfim, maior probabilidade de pacificação. Assim, o propósito da presente dissertação é estudar o aproveitamento da demanda quanto aos fatos dedutíveis pelas partes e que advenham ou sejam conhecidos no curso do processo como meio, então, de concretização do processo justo, um processo balizado por garantias, um processo humanizado e conforme os reclamos da sociedade hodierna. A pesquisa se concentra na legislação, doutrina e jurisprudência brasileiras, contando, outrossim, com singelo exame de ordenamentos similares. Em paralelo, estudam-se os princípios que suportam o tema, notadamente o princípio do contraditório participativo, qualificado que é pela ampla participação dos sujeitos da crise de direito material. O trabalho procura demonstrar, enfim, que é viável a proposta no contexto de um Direito Processual afinado com os ditames constitucionais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este estudo avalia o impacto da liberalização comercial entre Brasil e China sobre o comércio, produção, preços, investimento, poupança e emprego. O objetivo da análise é identificar a existência de uma oportunidade de comércio para o Brasil que viabilize um maior crescimento, incremente as exportações brasileiras e reduza o desemprego. A hipótese principal é a existência de ganhos de bem estar no comércio com a China. O modelo utilizado é o GLOBAL TRADE ANALYSIS PROJECT (GTAP) com 10 regiões, 10 produtos, 5 fatores, com retornos constantes de escala e competição perfeita nas atividades de produção. Destacam-se na análise os produtos agropecuários. Utilizam-se três fechamentos macroeconômicos (closure) para avaliar separadamente alguns agregados: a configuração padrão dos modelos CGE (preço da poupança endógeno e pleno emprego); preço da poupança exógeno; e desemprego. Conclui-se que pode haver benefícios para os dois países com o acordo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Elucidating the intricate relationship between brain structure and function, both in healthy and pathological conditions, is a key challenge for modern neuroscience. Recent progress in neuroimaging has helped advance our understanding of this important issue, with diffusion images providing information about structural connectivity (SC) and functional magnetic resonance imaging shedding light on resting state functional connectivity (rsFC). Here, we adopt a systems approach, relying on modular hierarchical clustering, to study together SC and rsFC datasets gathered independently from healthy human subjects. Our novel approach allows us to find a common skeleton shared by structure and function from which a new, optimal, brain partition can be extracted. We describe the emerging common structure-function modules (SFMs) in detail and compare them with commonly employed anatomical or functional parcellations. Our results underline the strong correspondence between brain structure and resting-state dynamics as well as the emerging coherent organization of the human brain.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Trocadores de calor são equipamentos muito utilizados na indústria de processos com o objetivo de modificar a temperatura e/ou o estado físico de correntes materiais. Uma rede de trocadores de calor pode ser definida como um grupo de trocadores de calor interligados, a fim de reduzir as necessidades de energia de um sistema. No entanto, durante a operação de uma rede, a eficiência térmica dos trocadores de calor diminui devido à deposição. Esse efeito promove o aumento dos custos de combustível e das emissões de carbono. Uma alternativa para mitigar este problema baseia-se no estabelecimento de uma programação das limpezas dos trocadores de calor durante a operação de rede. Este tipo de abordagem ocasiona uma situação na qual ocorre um conflito de escolha: a limpeza de um trocador de calor pode recuperar a sua eficiência térmica, mas implica custos adicionais, tais como, mão-de-obra, produtos químicos, etc. Além disso, durante a limpeza, o trocador de calor tem de ser contornado por uma corrente de by-pass, o que aumenta temporariamente o consumo de energia. Neste contexto, o presente trabalho tem como objetivo explorar diferentes técnicas de otimização envolvendo métodos estocásticos e heurísticos. Com este objetivo foi desenvolvido um conjunto de códigos computacionais integrados que envolvem a simulação pseudo-estacionária do comportamento da rede relacionado com incrustações e a otimização da programação das limpezas deste tipo de sistema. A solução do problema indica os períodos de tempo para a limpeza de cada trocador de calor. Na abordagem estocástica empregada, os parâmetros do algoritmo genético, como probabilidade de crossover e probabilidade de mutação, foram calibrados para o presente problema. A abordagem heurística desenvolvida se deu através da sequência do conjunto de movimentos zero, um e dois. De forma alternativa, desenvolveu-se a metodologia heurística recursiva na qual os conjuntos de movimentos um e dois foram empregados recursivamente. Também foi desenvolvida a abordagem híbrida que consistiu em diferentes combinações da metodologia estocástica e heurística. A análise comparativa entre as metodologias empregadas teve como objetivo avaliar a abordagem mais adequada para o presente problema da programação das limpezas em termos de função objetivo e esforço computacional. O desempenho da abordagem proposta foi explorado através de uma série de exemplos, incluindo uma refinaria real brasileira. Os resultados foram promissores, indicando que as técnicas de otimização analisadas neste trabalho podem ser abordagens interessantes para operações que envolvam redes de trocadores de calor. Dentre as abordagens de otimização analisadas, a metodologia heurística desenvolvida no presente trabalho apresentou os melhores resultados se mostrando competitiva frente às abordagens comparadas da literatura

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação aplica a regularização por entropia máxima no problema inverso de apreçamento de opções, sugerido pelo trabalho de Neri e Schneider em 2012. Eles observaram que a densidade de probabilidade que resolve este problema, no caso de dados provenientes de opções de compra e opções digitais, pode ser descrito como exponenciais nos diferentes intervalos da semireta positiva. Estes intervalos são limitados pelos preços de exercício. O critério de entropia máxima é uma ferramenta poderosa para regularizar este problema mal posto. A família de exponencial do conjunto solução, é calculado usando o algoritmo de Newton-Raphson, com limites específicos para as opções digitais. Estes limites são resultados do princípio de ausência de arbitragem. A metodologia foi usada em dados do índice de ação da Bolsa de Valores de São Paulo com seus preços de opções de compra em diferentes preços de exercício. A análise paramétrica da entropia em função do preços de opções digitais sínteticas (construídas a partir de limites respeitando a ausência de arbitragem) mostraram valores onde as digitais maximizaram a entropia. O exemplo de extração de dados do IBOVESPA de 24 de janeiro de 2013, mostrou um desvio do princípio de ausência de arbitragem para as opções de compra in the money. Este princípio é uma condição necessária para aplicar a regularização por entropia máxima a fim de obter a densidade e os preços. Nossos resultados mostraram que, uma vez preenchida a condição de convexidade na ausência de arbitragem, é possível ter uma forma de smile na curva de volatilidade, com preços calculados a partir da densidade exponencial do modelo. Isto coloca o modelo consistente com os dados do mercado. Do ponto de vista computacional, esta dissertação permitiu de implementar, um modelo de apreçamento que utiliza o princípio de entropia máxima. Três algoritmos clássicos foram usados: primeiramente a bisseção padrão, e depois uma combinação de metodo de bisseção com Newton-Raphson para achar a volatilidade implícita proveniente dos dados de mercado. Depois, o metodo de Newton-Raphson unidimensional para o cálculo dos coeficientes das densidades exponenciais: este é objetivo do estudo. Enfim, o algoritmo de Simpson foi usado para o calculo integral das distribuições cumulativas bem como os preços do modelo obtido através da esperança matemática.