988 resultados para Probabilidade geometrica
Resumo:
Este trabalho aplica a teoria de cópulas à mensuração do risco de mercado, através do cálculo do Value at Risk (VaR). A função de cópula oferece uma maior flexibilidade para a agregação de riscos quando comparada com abordagens tradicionais de mensuração de risco. A teoria de cópulas permite a utilização de distribuições de probabilidade diferentes da normal para a modelagem individual dos fatores de risco. Além disso, diferentes estruturas de associação entre eles podem ser aplicadas sem que restrições sejam impostas às suas distribuições. Dessa forma, premissas como a normalidade conjunta dos retornos e a linearidade na dependência entre fatores de risco podem ser dispensadas, possibilitando a correta modelagem de eventos conjuntos extremos e de assimetria na relação de dependência. Após a apresentação dos principais conceitos associados ao tema, um modelo de cópula foi desenvolvido para o cálculo do VaR de três carteiras, expostas aos mercados brasileiros cambial e acionário. Em seguida, a sua precisão foi comparada com a das metodologias tradicionais delta-normal e de simulação histórica. Os resultados mostraram que o modelo baseado na teoria de cópulas foi superior aos tradicionais na previsão de eventos extremos, representados pelo VaR 99%. No caso do VaR 95%, o modelo delta-normal apresentou o melhor desempenho. Finalmente, foi possível concluir que o estudo da teoria de cópulas é de grande relevância para a gestão de riscos financeiros. Fica a sugestão de que variações do modelo de VaR desenvolvido neste trabalho sejam testadas, e que esta teoria seja também aplicada à gestão de outros riscos, como o de crédito, operacional, e até mesmo o risco integrado.
Resumo:
Estudos anteriores mostraram que a técnica de redes neurais tem sido mais bem sucedida que os modelos tradicionais em vários assuntos relacionados ao mercado de debêntures, tais como modelar a probabilidade de default e em explicar os ratings de agências classificadoras de risco, como Standard & Poors e Moodys. O objetivo deste trabalho é testar a técnica de redes neurais para precificar debêntures no Brasil e comparar os resultados obtidos com regressões lineares. Para isso, utilizaram-se como variáveis explicativas dados contábeis, características específicas das emissões, tais como prazo para vencimento e cláusulas de recompra antecipada. Em relação às variáveis dependentes, optou-se por utilizar as taxas divulgadas diariamente pela ANDIMA como valor de mercado para as debêntures. As variáveis acima foram testadas em diversos modelos pelo método dos mínimos quadrados ordinários e o modelo que apresentou o melhor resultado foi testado em redes neurais com duas camadas intermediárias. Os resultados obtidos com redes neurais com seis e oito neurônios apresentaram resultados superiores aos modelos estimados por mínimos quadrados ordinários tanto na fase de treinamento como na fase de testes. No entanto, ainda há bastante espaço para melhorias nos modelos dado que o tamanho da base de dados disponível para este tipo de testes no Brasil ainda não é a ideal e as taxas divulgadas pela ANDIMA são médias de um grupo pequeno de instituições e não necessariamente refletem o valor de mercado de uma debênture.
Resumo:
O grau de liberdade da política monetária é uma questão muito relevante em um país que decide adotar um regime de metas inflacionárias e câmbio flutuante. Caso a autoridade monetária desse país não tenha liberdade para atuar, o regime de metas pode ser ineficiente. Em especial, caso esse país se encontre numa situação de Dominância Fiscal, a política monetária pode ter efeitos perversos sobre a relação dívida/PIB, aumentando seu prêmio de risco soberano e causando um aumento na probabilidade de default implícita em seus títulos soberanos. O intuito desse trabalho é realizar o teste de dominância a partir de um modelo proposto por Olivier Blanchard em 2004, e testar primeiro se o país se encontrava em dominância em 2002, 2003 e depois analisar o resultado desse modelo até novembro de 2005. Algumas modificações de variáveis utilizadas, medidas de risco e taxa de juros são propostas e é acrescido ao modelo um teste de estabilidade de coeficientes e a incerteza causada no período eleitoral em 2002. Além disso, é analisada a reação do Banco Central no período, para identificar se sua reação compartilhava da visão de dominância que o modelo original apresentava ou não. A conclusão é que o Brasil, mesmo após as alterações sugeridas, ainda se encontra numa situação de dominância fiscal segundo a descrição do modelo. Porém, o resultado final é cerca de 20% do originalmente observado em 2004, resultando em uma liberdade de atuação significativamente maior para a autoridade monetária no Brasil em 2002 e 2003. O Banco Central parece ter reagido a mudanças de expectativa de inflação e não parecia compartilhar um diagnóstico de dominância fiscal ao longo de 2002. As eleições foram significativas para explicar aumento da probabilidade de default, mas não alteram significativamente o resultado do teste após as mudanças de variáveis. A medida de risco proposta resulta em um modelo melhor para medir dominância no Brasil. A mensagem final é que o Brasil ainda precisa se preocupar com as restrições fiscais, mas elas são menores que o modelo original propunha.
Resumo:
Neste trabalho, analisam-se os processos de formação de ligações de hidrogênio entre as bases Adenina. Timina, Guanina e Citosina usando o método Monte Carlo probabilístico. A possibilidade de formação de pares é inicialmente verificada considerando critério geométrico (distância e orientação das molécutlas) seguida pela análise da probabilidade energética, que é proporcional ao fator de Boltzmann. Os resultados mostram que a probabilidade de concorrência, para alguns modelos, não segue a estrutura mais provável segundo o fator de Boltzmann. Isto sugere que existe uma forte influência geométrica na formação dos pares (ligações simples e múltiplas). Tal análise fornece para a construção de modelos mais complexos bem como para o entendimento de alguns mecanismos que ocorrem em processos relacionados à mutações, visando compreender este tipo de fenômeno biológico
Resumo:
O refluxo gastresofágico (RGE) constitui entidade clínica reconhecida na literatura médica atual, sendo associado a uma variedade de sintomas respiratórios, entre os quais inclui-se tosse crônica. Foram analisados prospectivamente 68 pacientes de ambos os sexos com queixas de tosse crônica (mais de 3 semanas). Realizou-se um questionário desenvolvido na Clínica da Tosse do Pavi¬lhão Pereira Filho da Irmandade da Santa Casa de Misericórdia de Porto Alegre, contendo dez questões sobre hiper-reatividade brônquica, dez sobre sinusopatia, quinze sobre refluxo gastresofágico, dez sobre rinite, duas sobre bronquiectasias, três sobre etiologia psicogênica e uma relacionada ao uso de inibidor da enzima conver¬sora da angiotensina (ECA). As questões utilizadas no estudo foram somente 15 que abrangem os mais freqüentes sinais e sintomas característicos do RGE, adotando como padrão áureo do diagnóstico a pHmetria esofágica de 24 horas (doravante citada como pHmetria). As manifestações clínicas mais freqüentes foram: rouquidão em 46 pacien¬tes (67,6%), azia em 42 (61,8%), piora da tosse após as refeições em 38 (55,9%), regur¬gitação em 34 (50,0%), eructação em 32 (47,8) e dor no peito em 25 (42,6%). A pHmetria foi realizada em 68 pacientes, sendo positiva em 55 (80,9%) e negativa em 13 (19,1%). A avaliação dos resultados permitiu concluir que o questionário aplicado revelou que o conjunto das manifestações clínicas mostrou-se bom preditor de pro¬babilidade quanto ao RGE, medido à pHmetria. A análise particularizada para cada quesito, entretanto, revelou que as manifestações isoladamente não se mostraram significativas, com exceção de náuseas, gases e eructação. Dos 13 pacientes com pHmetria esofágica normal, o questionário, analisa¬do pelo modelo de regressão logística classificou corretamente 7 pacientes (53,8%) deles. Dos 55 pacientes com pHmetria esofágica positiva, ou, em última análise, com presença de RGE, 53 pacientes (96,4%) foram corretamente classificados pela análise de regressão logística atra¬vés das manifestações clínicas do questionário. O rendimento do questionário mostrou associação significativa entre sin¬tomas clínicos de RGE e a probabilidade de o teste de pHmetria ser positivo. Portanto, na ausência deste equipamento, em pacientes com tosse crônica, é sugerida a aplicação do questionário, pois em apenas 8 pacientes (11,7%) da amos¬tra as pergun¬tas do questionário, analisadas segundo o modelo de regressão logísti¬ca, não foram boas preditoras da presença ou ausência de RGE.
Resumo:
Neste trabalho apresentamos evidência sobre os efeitos da alfabetização de adultos na renda e probabilidade de empregos dos indivíduos. Os dados longitudinais disponibilizados pela Pesquisa Mensal de Emprego (PME) permitem controlar os efeitos fixos não-observáveis dos indivíduos gerando uma estimação mais robusta e consistente dos efeitos analisados. De modo geral, os resultados deste trabalho indicam retorno de 9,3% em rendimentos para indivíduos que se alfabetizam. Mostramos evidência que sugerem que esse efeito no salário se deve a acréscimos de produtividade e não por um aumento na formalização dos trabalhadores alfabetizados. Ademais, observamos que o efeito na renda é mais proeminente em certos grupos de indivíduos: mulheres, residentes de Salvador e pessoas entre 45 e 60 anos
Resumo:
Na tentativa de encontrar estratégias economicamente sustentáveis, muitas organizações vêm buscando diversas alternativas. Em uma dessas alternativas, as organizações tendem a lançar mão de práticas cooperativas de gestão, visando complementar suas potencialidades. Os relacionamentos de parceria ou cooperação buscam melhorar a capacidade das organizações nas suas relações de interdependências, na tentativa de melhorar a eficácia organizacional. Muitos estudos vêm corroborando essa linha de pensamento. A proposição central das teorias expostas é que as organizações inseridas em relacionamentos interorganizacionais, em geral, e em redes, em particular, têm maior probabilidade de conquistarem vantagens competitivas sustentáveis. No entanto, esses estudos são fragmentados, o que dificulta a compreensão sobre o todo. Poucos têm sido os trabalhos empíricos, no que se refere à análise das formas de cooperação horizontal. Este trabalho tem o objetivo de identificar como as organizações se estruturam em seus relacionamentos interorganizacionais, de modo que se possa contribuir para a melhor consolidação da teoria existente. Para isso, buscou-se descobrir como essas novas formas de organizações surgiram, quais são os fatores que influenciam as empresas a aderirem a esse processo de cooperação, como se estruturam esses relacionamentos horizontais e qual a performance das organizações inseridas nesses relacionamentos. Para esta análise, foram estudadas 110 empresas pertencentes a cinco diferentes tipos de redes horizontais. Os dados foram coletados por meio de 28 entrevistas e de 110 questionários aplicados nas empresas pertencentes às redes e situadas em 25 municípios diferentes no Estado do Rio Grande do Sul. Os dados foram analisados, utilizando-se múltiplos métodos (estudos de casos, análise fatorial, estatística descritiva e análise de regressão). Os resultados demonstram que as redes analisadas foram criadas como estratégias de sobrevivência no mercado. Sendo assim, as empresas ingressaram nas redes, buscando alavancar os seus negócios dentro de um ambiente que elas pudessem classificar como mais confiável e seguro. Não foram valorizadas variáveis, como inovação e aprendizagem, como determinantes do ingresso. Observa-se, assim, uma tentativa para a formação das redes com um caráter de crescimento e proteção contra possíveis mudanças ambientais, ou seja, o ingresso na rede gera uma percepção de segurança maior em relação às nuanças ambientais. Dessa forma, as redes têm capacidade de agregação de valor limitada. Esse caráter limitador das redes reflete na ausência de suas perspectivas estratégicas de crescimento qualitativo, criando estruturas meramente executoras de atividades rotineiras. Com isso, as redes reduzem as incertezas do ambiente para as organizações, mas não são guias para a formação de novas formas de agregação de valor. As redes estudadas são formadas, em sua maioria, por atores denominados "empresários" que visam, em primeiro lugar, atingir os seus objetivos individuais em rede e, em seguida, garantir, através dos mecanismos de controle, que esses objetivos não sejam perdidos por ações oportunísticas de outros atores. Apesar de as redes estudadas não almejarem novos benefícios coletivos, observou-se que a formação das redes constituiu-se em uma excelente alternativa estratégica para a sobrevivência dos atores. Assim, as constatações de caráter limitante do impacto das redes no desempenho das organizações nela inseridas não ofuscam essa forma inovadora de estruturação e nem as suas repercussões para a sociedade em geral.
Resumo:
O sistema produtivo orgânico está sujeito a uma série de variáveis, as quais afetam o processo decisório do gestor, pois indicam características e probabilidade de resultados, como em qualquer sistema. A necessidade de uma fundamentação informacional confiável e organizada, para auxiliar o gerenciamento da produção orgânica, foi o fato gerador dessa pesquisa. Assim, por exemplo, para definir qual variedade convém plantar, é preciso conhecer o solo, o clima, a capacidade de liberação de nutrientes, etc, a fim de escolher a varietal mais adequada às condições específicas do local e obter a melhor produtividade possível. A produção orgânica busca interagir, convivendo com a heterogeneidade encontrada no ecossistema, evitando fortes impactos ambientais, embora aumentando o número de variáveis, se comparado à produção industrial. Através do método ABC – custeio baseado em atividades, foram planificadas e analisadas as atividades do sistema produtivo de alface orgânica na empresa Porto Verde, responsável por produção e comercialização de verduras orgânicas. Para implantar o método ABC no sistema estudado, foi desenvolvido e testado um modelo de aplicação do ABC na produção de alface orgânica, de modo que em casos semelhantes possa ser repetida a pesquisa. A análise dos dados permitiu quantificar comparações entre cultivos, onde conhecimento dos defeitos e vantagens de cada um auxiliam o gestor no processo decisório. Comparativamente é possível identificar aprimoramentos a serem feitos nos mais diversos cultivos, que possuem suas características distintas. Isto se explica, não apenas no nível operacional de remediar situações ainda durante o cultivo, como também no nível estratégico, subsidiando o planejamento de futuros cultivos.
Resumo:
Este artigo persegue três objetivos complementares: i) avaliar comparativamente os indicadores sociais das crianças. ii) analisar as consequencias de longo prazo derivadas do bom desempenho infantil. iii) por último , e mais importante, analisar os determinantes micro e macroeconômicos da repetência escolar, evasão escolar e do trabalho infantil. Ou seja avaliamos os efeitos de longo prazo da instabilidade econômica medida a nível microeconômico. As principais variáveis analisadas são aproximações dinâmicas de impulsos e respostas, isto é: de um lado choques de renda no chefe do domicílio e de outro lado, a probabilidade da criança abandonar a escola, repetir a série ou começar a trabalhar. A principal conclusão do estudo é que a má alocção do tempo das crianças cresce quando se junta necessidade com oportunidade, como crianças pobres em regiões ricas ou filhos de desempregados durante booms.
Resumo:
In this paper we offer a rationale for the existence of preferences for domestic…rms in government procurement. When the domestic…rm’s probability of completion of a government contract is larger than the foreign …rms probability of completion, the government should favor domestic…rms in order to maximize the expected net bene…tof the project. We compute the…rms’ equilibrium strategies for a lowest offer procurement auction. We also compute numerically the level of preferences that maximizes the government’s net expected bene…t under different parameter values.
Resumo:
Esta dissertação apresenta alguns critérios para avaliação de ameaças e risco geotécnico aplicados à estabilidade de taludes. Inicialmente apresenta-se uma visão geral dos problemas envolvidos com a análise de risco geotécnico, a importância da análise probabilística e a sua comparação com a determinística, e as opções de gerenciamento descritas na literatura. Estas análises envolvem conceitos de probabilidade, estatística, geotecnia, geologia, meio ambiente e legislação, além do interesse público e defesa civil. Assim, são definidos os conceitos estatísticos envolvidos nessa área multidisciplinar, como variabilidade espacial, coeficiente de correlação entre os parâmetros de entrada do modelo, distância de autocorrelação, escala de flutuação e incertezas (de parâmetros, humanas e dos modelos). Os métodos probabilísticos de cálculo do fator de segurança, a probabilidade de ruptura e o índice de confiabilidade são revisados. Utilizou-se o método de Monte Carlo nas análises através do uso de um programa comercial. O método tem sido adotado por diversos pesquisadores por ser direto, eficiente para problemas matematicamente complexos e não ter a complexidade matemática de outros métodos. A metodologia de análise de ameaças e risco geotécnico foi aplicada a um talude modelo, similar aos taludes de colúvio de basalto encontrados nas partes inferiores da Escarpa dos Aparados da Serra em Santa Catarina Os resultados obtidos, a partir de dados experimentais disponíveis, foram o fator de segurança determinístico mínimo (1,20) e o fator de segurança médio obtido pelo método de Monte Carlo (1,205), índice de confiabilidade de 2,64 e probabilidade de ruptura de 0,41%. Foi discutida também a aceitabilidade do fator de segurança médio da análise probabilística, comparando-se os resultados obtidos com valores aceitos em obras similares.
Resumo:
Contaminação da confiança é um caso especial de incerteza Knightiana ou ambiguidade na qual o tomador de decisões está diante de não apenas uma única distribuição de probabilidades, mas sim de um conjunto de distribuições de probabilidades. A primeira parte desta tese tem o propósito de fornecer uma caracterização da contaminação da confiança e então apresentar um conjunto de axiomas comportamentais simples sob os quais as preferências de um tomador de decisões é representada pela utilidade esperada de Choquet com contaminação da confiança. A segunda parte desta tese apresenta duas aplicações econômicas de contaminação da confiança: a primeira delas generaliza o teorema de existência de equilíbrio de Nash de Dow e Werlang (o que permite apresentar uma solução explícita para o paradoxo segundo o qual os jogadores de um jogo do dilema dos prisioneiros com um número infinito de repetições não agem de acordo com o esperado pelo procedimento da indução retroativa) e a outra estuda o impacto da contaminação da confiança na escolha de portfolio.
Resumo:
Este trabalho apresenta um método de apreçamento não paramétrico de derivativos de taxa de juros baseado em teoria da informação. O apreçamento se dá através da distribuição de probabilidade na medida futura, estimando aquela que mais se aproxima da distribuição objetiva. A teoria da informação sugere a forma de medir esta distância. Especificamente, esta dissertação generaliza o método de apreçamento canônico criado por Stutzer (1996), também baseado na teoria da informação, para o caso de derivativos de taxas de juros usando a classe Cressie-Read como critério de distância entre distribuições de probabilidade.
Resumo:
Este trabalho pretende avaliar se é possível elaborar estratégias pedagógicas com base em modelos de níveis de tomada de consciência e utilizá-las, por meio de agentes inteligentes, em um ambiente de aprendizagem. O ambiente utilizado foi o AMPLIA - Ambiente Multi-agente Probabilístico Inteligente de Aprendizagem, desenvolvido inicialmente como um recurso auxiliar para a educação médica: neste ambiente, o aluno constrói uma representação gráfica de sua hipótese diagnóstica, por meio de uma rede bayesiana. O AMPLIA é formado por três agentes inteligentes, o primeiro é o Agente de Domínio, responsável pela avaliação da rede bayesiana do aluno. Os projetos dos outros dois agentes inteligentes do AMPLIA são apresentados nesta tese: o Agente Aprendiz, que faz inferências probabilísticas sobre as ações do aluno, a fim de construir um modelo do aluno baseado em seu nível de tomada de consciência, e o Agente Mediador, que utiliza um Diagrama de influência, para selecionar a estratégia pedagógica com maior probabilidade de utilidade. Por meio de uma revisão dos estudos de Piaget sobre a equilibração das estruturas cognitivas e sobre a tomada de consciência, foi construída a base teórica para a definição e organização das estratégias. Essas foram organizadas em classes, de acordo com o principal problema detectado na rede do aluno e com a confiança declarada pelo aluno, e em táticas, de acordo com o nível de autonomia, inferido pelo Agente Aprendiz. Foram realizados experimentos práticos acompanhados por instrumentos de avaliação e por observações virtuais on line, com o objetivo de detectar variações nos estados de confiança, de autonomia e de competência. Também foram pesquisados indícios de estados de desequilibração e de condutas de regulação e equilibração durante os ciclos de interação do aluno com o AMPLIA. Os resultados obtidos permitiram concluir que há evidências de que, ao longo do processo, há ciclos em que o aluno realiza ações sem uma tomada de consciência. Estes estados são identificados, probabilisticamente, pelo agente inteligente, que então seleciona uma estratégia mais voltada para um feedback negativo, isto é, uma correção. Quando o agente infere uma mudança neste estado, seleciona outra estratégia, com um feedback positivo e com maior utilidade para dar início a um processo de negociação pedagógica, isto é, uma tentativa de maximizar a confiança do aluno em si mesmo e no AMPLIA, assim como maximizar a confiança do AMPLIA no aluno. Os trabalhos futuros apontam para a ampliação do modelo do aluno, por meio da incorporação de um maior número de variáveis, e para a necessidade de aprofundamento dos estudos sobre a declaração de confiança, do ponto de vista psicológico. As principais contribuições relatadas são na definição e construção de um modelo de aluno, com utilização de redes bayesianas, no projeto de um agente pedagógico como mediador num processo de negociação pedagógica, e na definição e seleção de estratégias pedagógicas para o AMPLIA.
Resumo:
A necessidade de uma maior longevidade da artroplastia total do quadril em pessoas mais jovens e ativas tem impulsionado a evolução do projeto de hastes cimentadas polidas e sem colar, através de alterações da forma desde a original de Charnley, passando pela dupla cunha e mais recentemente, a tripla cunha. Essa pesquisa foi direcionada à análise comparativa da estabilidade de hastes cujos ângulos de cunha foram a variável de projeto. Modelos físicos simplificados de diferentes conicidades foram elaborados e submetidos a testes e simulações numéricas para verificar, respectivamente, a migração distal e o ambiente mecânico da interface entre a haste e o cimento. Em modelos anatômicos constituídos das formas de hastes comerciais, implantadas em fêmures compósitos, foram acompanhadas as movimentações axial e rotacional e foi determinado o padrão de transmissão de carga através do nível de deformações no interior do manto de cimento e na superfície do osso. A hipótese é que uma prótese que apresente maiores deslocamentos e maiores níveis de deformações impostas ao manto de cimento em testes estáticos e cíclicos devem ser as de maior probabilidade de revisão precoce. Por outro lado, a relação entre o nível de deformação da superfície cortical antes e depois da implantação das hastes indica o potencial para o remodelamento ósseo As hastes foram extraídas e reimplantadas nos modelos anatômicos após os testes de fadiga para verificar alterações nos padrões de deformação. Também foi avaliada a contribuição da polimerização do cimento na estabilidade através do acompanhamento das deformações e de simulações numéricas. O processo de polimerização do cimento contribui para o acoplamento, pois promove um grande nível de deformações residuais devido à retração. Por outro lado pode provocar trincas iniciais e espaços na interface entre o cimento e o osso, além de facilitar a propagação de trincas por fadiga. Nas simulações numéricas dos modelos físicos observamos que a condição inicial de adesão na interface é representativa entre a haste e o manto. Os modelos físicos indicaram maior migração com menor conicidade. Para os modelos anatômicos houve diferença significativa apenas quanto à rotação permanente entre os grupos, estando isto associado à rigidez proximal e ao raio de transição do calcar. As hastes tripla cunha conferem uma menor redução do nível de carregamento no grande trocânter, o que pode prevenir a reabsorção óssea adaptativa. As hastes dupla cunha provocam menor redução do nível de carregamento na região do calcar. Entretanto, outros fatores devem ser considerados, tais como o raio de transição do calcar e a rigidez proximal das hastes. Nos modelos anatômicos, mesmo após a extração e reimplantação das hastes, manteve-se o padrão de deformações tanto no manto quanto na superfície dos fêmures compósitos.