807 resultados para Cálculo de probabilidades
Resumo:
A falta de eficiência das organizações compromete no longo prazo o desenvolvimento de toda a economia. No caso do mercado de saúde ambiental, uma maior coordenação entre os programas públicos e privados aumentaria a universalização do serviço de controle de endemias para a sociedade. A falta do domínio da tecnologia (como produzir; como atender à preferência do consumidor; como obter ganho de escala; como coordenar e motivar os públicos envolvidos e como fortalecer as instituições de longo prazo) gera perdas de até 49% segundo esta estimativa. Para contribuir com a hipótese acima e para incentivar e promover a eficiência das empresas deste setor, este trabalho calcula a eficiência na prestação de serviço com o método de fronteira estocástica de produção com dados em painel (2005-2008) para a atividade de imunização e controle de pragas. A fronteira de produção retraiu-se neste período. As variáveis: idade da empresa, foco da formação do líder e meta de lucratividade mostram-se significativas para a eficiência da amostra.
Resumo:
Estudo da teoria das opções reais que incorpora à avaliação de projetos de investimentos, as opções de crescimento e as flexibilidades gerenciais que surgem devido às incertezas existentes no ambiente no qual as empresas operam. Aborda os métodos tradicionais de avaliação de investimentos baseados no fluxo de caixa descontado (FCD), destaca as suas vantagens e limitações; a teoria das opções reais mostrando suas vantagens em relação aos métodos tradicionais; e um estudo de caso. Tem como objetivo principal apresentar que a teoria das opções reais é viável e complementar aos métodos tradicionais de avaliação de investimentos na indústria de mineração de ferro, com a abordagem da avaliação em tempo discreto. Este método permite especificar o problema de análise e resolvê-lo com o uso de programa de software de análise de decisão disponível no mercado de forma mais simples e mais intuitivo que os métodos tradicionais de avaliação de opções reais e permite maior flexibilidade na modelagem do problema de avaliação. A modelagem das opções reais do projeto baseia-se no uso de árvore de decisão binomial para modelar o processo estocástico. A avaliação é realizada em quatro passos de acordo com a metodologia proposta por Copeland e Antikarov (2001) e Brandão e Dyer (2005): modelagem do ativo básico, ou seja, cálculo do valor presente líquido sem flexibilidade; criação do modelo binomial utilizando o software computacional para modelar o ativo básico, computando as probabilidades neutras a risco; modelagem das opções reais no projeto; e resolução da árvore binomial, ou seja, análise das opções reais. Os resultados apresentados demonstram que é possível implementar a abordagem da avaliação de opções reais em projetos de investimentos na indústria de mineração de ferro.
Resumo:
O presente estudo se localiza no espaço destinado a com preensão do papel da política municipal circunscrito ao caso brasileiro. Busca trabalhar o conceito de poder local, o qual atualmente já se encontra um pouco mais difundido nas análises sobre a dinâmica do poder exercido nos municípios. Além de tentar construir uma discussão explicativa sobre poder local e os diversos ternas articulados no seu questionamento, este trabalho pretende também compreender a tentativa de viabilização do poder local através da proposta do exercício participativo ou da gestão participativa do município. Constitui um exercício dialético de base empírica e teórica visando captar as possibilidades e os limites existentes no seio dessa proposta. A característica essencial do presente estudo ~ sua in tenção de compartilhar do campo de reflexão dos projetos e propostas de educação a partir do município tendo em vista a construção de urna escola democrática. Como compreender, planejar e avaliar o processo político-ideológico de ensino-aprendizagem desenvolvido na rede de educação municipal se não houver uma inquietação sobre o papel da escola, assim como a configuração da sua função na esfera municipal? É desejo deste trabalho favorecer esta compreensão, contribuindo com subsídios aos profissionais da área político-educativa. Quanto à abrangência desta pesquisa, integra seu campo analítico as seguintes dimensões: quadro teórico da instância local de poder e dos temas articulados a esta questão, descrição de experiências de gestão municipal com tendência participativa, considerações sobre a proposta de participação da gestão municipal e observações finais sobre as possibilidades e os limites contidos neste tipo de proposta. De maneira mais direta, esta dissertação significa uma tentativa de apresentar um quadro inicial de referências sobre esta ampla problemática em pauta para um posterior amadurecimento.
Resumo:
Neste trabalho apresentamos três métodos distintos provando que S(n) = +1 X k=−1 (4k + 1)−n é um múltiplo racional de n para todos os inteiros n = 1, 2, 3, . . . O primeiro utiliza a teoria das função analíticas e funções geradoras. No segundo reduzimos o problema, via mudança de variável devida a E. Calabi, ao cálculo do volume de certos politopos em Rn enquanto que no terceiro usamos a teoria dos operadores integrais compactos. Cada um dos métodos tem um interesse intrínsico e está sujeito a generalizações para aplicações em novas situações.
Resumo:
resumo não disponível.
Resumo:
Neste trabalho é descrito um método automático para o cálculo das dimensões de caixas, em tempo real, a partir de uma única imagem obtida com projeção perspectiva. Conhecendo a orientação da caixa no espaço tridimensional e sua distância em relação à câmera, as coordenadas 3D de seus vértices podem ser estimadas e suas dimensões calculadas. Na técnica proposta, são utilizados conceitos de geometria projetiva para estimar a orientação espacial da caixa de interesse a partir de sua silhueta. Já a distância da caixa em relação à câmera é estimada por meio da projeção de feixes de laser sobre uma das faces visíveis da caixa. Esta abordagem pode ser aplicada quando duas ou três faces da caixa de interesse são visíveis simultaneamente na imagem, mesmo quando a caixa encontra-se parcialmente oclusa por outros objetos na cena. Entre as contribuições deste trabalho está o desenvolvimento de um eficiente processo de votação para a transformada de Hough, onde os pixels de uma imagem binária são processados em grupos ao invés de individualmente, como ocorre no método convencional. Também é apresentado um modelo estatístico para a remoção de fundo de cena. Nesse modelo, a cor de fundo é representada sob diferentes condições de iluminação por meio da delimitação de uma região no espaço de cores RGB. O modelo proposto não requer parametrização e é próprio para o uso em aplicações que requeiram câmeras móveis. Para a validação das técnicas descritas neste trabalho, foi construído um protótipo de scanner que calcula as dimensões de caixas a partir de imagens em tempo real. Com o auxilio do scanner, foram capturadas imagens e calculadas as dimensões de diversas caixas reais e sintéticas. As caixas sintéticas foram utilizadas em um ambiente controlado para a validação das técnicas propostas Um dos aspectos importantes deste trabalho é a análise da confiabilidade das medidas obtidas por meio da técnica proposta. Com o objetivo de estudar a propagação de erros ao longo do processo de cálculo das medidas, foi aplicado um método analítico baseado na Teoria de Erros. Também são apresentados estudos estatísticos envolvendo medições realizadas com o protótipo. Estes estudos levam em conta a diferença entre as medidas calculadas pelo sistema e as medidas reais das caixas. A análise dos resultados permite concluir que o método proposto é acurado e preciso.
Resumo:
Essa dissertação possui como objetivo traçar, uma nova metodologia de classificação de patogenicidade da Escherichia.coli,.através de um índice no qual, além do número de animais mortos, também foi considerado o tempo de morte e a capacidade da cepa causar lesão compatível à colibacilose em pintos de 1 dia. Para gerar esse critério, foram utilizadas 300 amostras de E.coli oriundas de lotes com lesão de celulite, cama desses mesmos aviários e amostras de quadros respiratórios. Através desse experimento foi possível observar que as amostras de E.coli originadas das camas dos aviários, apresentavam índice de patogenicidade significativamente menor do que aquelas isoladas das lesões cutâneas e de quadros respiratórios.Também foi associado às cepas de E.coli a capacidade de causar lesões de: pericardite, perihepatite, aerossaculite, peritonite e celulite. Dentre as lesões citadas somente a celulite foi considerada de apresentação significativamente mais freqüente em comparação às outras.
Resumo:
O produto potencial é uma variável não-observável e, por isso, de difícil mensuração. O objetivo deste trabalho é contribuir para a discussão sobre a estimação da taxa de crescimento do produto potencial brasileiro através de uma revisão teórica e metodológica das estimativas da variável para a economia brasileira. Após uma análise sintética sobre os principais conceitos relacionados ao tema e sobre os métodos de estimação mais utilizados na literatura nacional, optou-se por utilizar seis tipos de mensurações distintas. As principais conclusões do trabalho foram: primeiramente, as estimativas de Produto Interno Bruto (PIB) potencial são bastante sensíveis à metodologia utilizada; em segundo lugar, baseado em dados trimestrais da economia brasileira, foi possível verificar que a taxa de crescimento do produto potencial brasileiro caiu nos últimos anos e que esta se encontra em uma banda entre 1,63% e 2,72%.
Resumo:
O objetivo deste estudo é propor a implementação de um modelo estatístico para cálculo da volatilidade, não difundido na literatura brasileira, o modelo de escala local (LSM), apresentando suas vantagens e desvantagens em relação aos modelos habitualmente utilizados para mensuração de risco. Para estimação dos parâmetros serão usadas as cotações diárias do Ibovespa, no período de janeiro de 2009 a dezembro de 2014, e para a aferição da acurácia empírica dos modelos serão realizados testes fora da amostra, comparando os VaR obtidos para o período de janeiro a dezembro de 2014. Foram introduzidas variáveis explicativas na tentativa de aprimorar os modelos e optou-se pelo correspondente americano do Ibovespa, o índice Dow Jones, por ter apresentado propriedades como: alta correlação, causalidade no sentido de Granger, e razão de log-verossimilhança significativa. Uma das inovações do modelo de escala local é não utilizar diretamente a variância, mas sim a sua recíproca, chamada de “precisão” da série, que segue uma espécie de passeio aleatório multiplicativo. O LSM captou todos os fatos estilizados das séries financeiras, e os resultados foram favoráveis a sua utilização, logo, o modelo torna-se uma alternativa de especificação eficiente e parcimoniosa para estimar e prever volatilidade, na medida em que possui apenas um parâmetro a ser estimado, o que representa uma mudança de paradigma em relação aos modelos de heterocedasticidade condicional.
Resumo:
A presente dissertação tem como objetivo apresentar dois importantes modelos usados na análise de risco. Essa análise culmina em uma aplicação empírica para cada um deles. Apresenta-se primeiro o modelo Nelson-Siegel dinâmico, que estima a curva de juros usando um modelo paramétrico exponencial parcimonioso. É citada a referência criadora dessa abordagem, que é Nelson & Siegel (1987), passa-se pela apresentação da mais importante abordagem moderna que é a de Diebold & Li (2006), que é quem cria a abordagem dinâmica do modelo Nelson-Siegel, e que é inspiradora de diversas extensões. Muitas dessas extensões também são apresentadas aqui. Na parte empírica, usando dados da taxa a termo americana de Janeiro de 2004 a Março de 2015, estimam-se os modelos Nelson-Siegel dinâmico e de Svensson e comparam-se os resultados numa janela móvel de 12 meses e comparamos seus desempenhos com aqueles de um passeio aleatório. Em seguida, são apresentados os modelos ARCH e GARCH, citando as obras originais de Engle (1982) e Bolleslev (1986) respectivamente, discutem-se características destes modelos e apresentam-se algumas extensões ao modelo GARCH, incluindo aí alguns modelos GARCH multivariados. Passa-se então por uma rápida apresentação do conceito de VaR (Value at Risk), que será o objetivo da parte empírica. Nesta, usando dados de 02 de Janeiro de 2004 até 25 de Fevereiro de 2015, são feitas uma estimação da variância de um portfólio usando os modelos GARCH, GJR-GARCH e EGARCH e uma previsão do VaR do portfólio a partir da estimação feita anteriormente. Por fim, são apresentados alguns trabalhos que usam os dois modelos conjuntamente, ou seja, que consideram que as taxas ou os fatores que as podem explicam possuem variância variante no tempo.
Resumo:
Uma forma interessante para uma companhia que pretende assumir uma posição comprada em suas próprias ações ou lançar futuramente um programa de recompra de ações, mas sem precisar dispor de caixa ou ter que contratar um empréstimo, ou então se protegendo de uma eventual alta no preço das ações, é através da contratação de um swap de ações. Neste swap, a companhia fica ativa na variação de sua própria ação enquanto paga uma taxa de juros pré ou pós-fixada. Contudo, este tipo de swap apresenta risco wrong-way, ou seja, existe uma dependência positiva entre a ação subjacente do swap e a probabilidade de default da companhia, o que precisa ser considerado por um banco ao precificar este tipo de swap. Neste trabalho propomos um modelo para incorporar a dependência entre probabilidades de default e a exposição à contraparte no cálculo do CVA para este tipo de swap. Utilizamos um processo de Cox para modelar o instante de ocorrência de default, dado que a intensidade estocástica de default segue um modelo do tipo CIR, e assumindo que o fator aleatório presente na ação subjacente e que o fator aleatório presente na intensidade de default são dados conjuntamente por uma distribuição normal padrão bivariada. Analisamos o impacto no CVA da incorporação do riscowrong-way para este tipo de swap com diferentes contrapartes, e para diferentes prazos de vencimento e níveis de correlação.
Resumo:
Em resposta à crise financeira de 2008, em 2010 o Comitê de Basileia em Supervisão Bancária (Basel Committee on Banking Supervision - BCBS) emitiu a metodologia do cálculo do indicador de Risco de Liquidez de curto prazo (Liquidity Coverage Ratio - LCR) que é um dos componentes do conjunto de normas conhecido como Basileia III. Esse índice mede se cada conglomerado possui um estoque de ativos financeiros líquidos de alta qualidade de forma a suportar uma crise severa por 30 dias. Esse trabalho calculou o índice de liquidez de curto prazo dos dez maiores bancos brasileiros em ativos totais nos últimos cinco anos, seguindo as diretrizes do documento acima mencionado e do Banco Central do Brasil. A finalidade desse estudo foi verificar se houve uma melhora na liquidez dos grandes bancos após a divulgação da metodologia de cálculo do LCR, uma vez que a partir de 2015 é esperado pelo Banco Central do Brasil que os bancos possuam pelo menos 60% de ativos líquidos para suportar uma crise de 30 dias. A análise foi conduzida utilizando dados contábeis oriundos tanto do banco de dados do Banco Central do Brasil quanto das publicações individuais de cada instituição. Essa análise permitiu avaliar que os principais bancos do sistema financeiro brasileiro já estão preparados para atender aos requisitos internacionais e que não serão necessárias grandes alterações na estrutura do balanço das instituições analisadas, evitando a migração seus ativos de empréstimos, aplicações em certificados de depósitos interbancários e títulos privados para títulos de alta qualidade e liquidez.
Resumo:
O item não apresenta o texto completo, para aquisição do livro na íntegra você poderá acessar a Editora da UFSCar por meio do link: www.editora.ufscar.br
Resumo:
Neste material é apresentado primeiramente um teorema muito importante que é o teorema do valor médio, com exemplos de aplicação. Na sequência temos a definição de antiderivada ou primitiva de uma função. No segundo tópico segue a definição de integral indefinida e a apresentação de algumas integrais importantes e básicas. Uma tabela de integrais básicas também é disponibilizada. Finalizando, foram listados propriedades e exemplos de integrais.