124 resultados para Probabilidade geometrica


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese é composta por três artigos. Dois deles investigam assuntos afeitos a tributação e o terceiro é um artigo sobre o tema “poupança”'. Embora os objetos de análise sejam distintos, os três possuem como característica comum a aplicação de técnicas de econometria de dados em painel a bases de dados inéditas. Em dois dos artigos, utiliza-se estimação por GMM em modelos dinâmicos. Por sua vez, o artigo remanescente é uma aplicação de modelos de variável dependente latente. Abaixo, apresenta-se um breve resumo de cada artigo, começando pelos dois artigos de tributação, que dividem uma seção comum sobre o ICMS (o imposto estadual sobre valor adicionado) e terminando com o artigo sobre poupança. O primeiro artigo analisa a importância da fiscalização como instrumento para deter a evasão de tributos e aumentar a receita tributária, no caso de um imposto sobre valor adicionado, no contexto de um país em desenvolvimento. O estudo é realizado com dados do estado de São Paulo. Para tratar questões relativas a endogeneidade e inércia na série de receita tributária, empregam-se técnicas de painel dinâmico. Utiliza-se como variáveis de controle o nível do PIB regional e duas proxies para esforço fiscal: a quantidade e o valor das multas tributárias. Os resultados apontam impacto significativo do esforço fiscal nas receitas tributárias. O artigo evidencia, indiretamente, a forma como a evasão fiscal é afetada pela penalidade aplicada aos casos de sonegação. Suas conclusões também são relevantes no contexto das discussões sobre o federalismo fiscal brasileiro, especialmente no caso de uma reforma tributária potencial. O segundo artigo examina uma das principais tarefas das administrações tributárias: a escolha periódica de contribuintes para auditoria. A melhora na eficiência dos mecanismos de seleção de empresas tem o potencial de impactar positivamente a probabilidade de detecção de fraudes fiscais, provendo melhor alocação dos escassos recursos fiscais. Neste artigo, tentamos desenvolver este mecanismo calculando a probabilidade de sonegação associada a cada contribuinte. Isto é feito, no universo restrito de empresas auditadas, por meio da combinação “ótima” de diversos indicadores fiscais existentes e de informações dos resultados dos procedimentos de auditoria, em modelos de variável dependente latente. Após calculados os coeficientes, a probabilidade de sonegação é calculada para todo o universo de contribuintes. O método foi empregado em um painel com micro-dados de empresas sujeitas ao recolhimento de ICMS no âmbito da Delegacia Tributária de Guarulhos, no estado de São Paulo. O terceiro artigo analisa as baixas taxas de poupança dos países latino-americanos nas últimas décadas. Utilizando técnicas de dados em painel, identificam-se os determinantes da taxa de poupança. Em seguida, faz-se uma análise contrafactual usando a China, que tem apresentado altas taxas de poupança no mesmo período, como parâmetro. Atenção especial é dispensada ao Brasil, que tem ficado muito atrás dos seus pares no grupo dos BRICs neste quesito. O artigo contribui para a literatura existente em vários sentidos: emprega duas amplas bases de dados para analisar a influência de uma grande variedade de determinantes da taxa de poupança, incluindo variáveis demográficas e de previdência social; confirma resultados previamente encontrados na literatura, com a robustez conferida por bases de dados mais ricas; para alguns países latino-americanos, revela que as suas taxas de poupança tenderiam a aumentar se eles tivessem um comportamento mais semelhante ao da China em outras áreas, mas o incremento não seria tão dramático.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A era digital viu a ascensão da empresa focada no consumidor. Todos os dias, marcas e produtos são objeto de milhões de conversas em que os consumidores trocam pontos de vista, opiniões e informações antes de tomar a decisão de compra. Os profissionais de marketing entenderam a importância do boca a boca como um novo canal de comunicação estratégica e começaram a ancorar técnicas de boca a boca à estratégia de marketing global. A propaganda tornou-se um negócio de conversa: o novo desafio do marketing é criar um conteúdo envolvente e compartilhável que possa expandir e ressoar dentro de redes de sociais de consumidores. Quanto mais as pessoas falam sobre a sua marca, mais a probabilidade de ganhar a competição dura e aumentar as vendas. Mas como o boca a boca funciona? O que faz uma campanha de marketing um sucesso viral? Este trabalho tem como objetivo fornecer uma análise abrangente da teoria de marketing de boca a boca e usa um modelo descritivo para investigar as variáveis-chave de campanhas bem-sucedidas de marketing viral, a fim de proporcionar insights e sugestões para as práticas de marketing viral.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O mercado de crédito vem ganhando constantemente mais espaço na economia brasileira nos últimos anos. Haja vista isto, o risco de crédito, que tenta medir a perda com operações de crédito, tem fundamental importância e, neste contexto, a perda esperada é, sem dúvida, tema chave. Usualmente, a perda esperada relativa, EL (%), é modelada como o produto dos parâmetros de risco PD (probabilidade de default) e LGD (perda dado o default) pressupondo a independência dos mesmos. Trabalhos recentes mostram que pode haver oportunidade em melhorar o ajuste com a modelagem conjunta da perda, além da retirada da forte premissa de independência dos fatores. O presente trabalho utiliza a distribuição beta inflacionada, modelo BEINF da classe GAMLSS, para o ajuste da perda esperada relativa através de uma base de dados reais disponibilizada pela empresa Serasa Experian. Os resultados mostram que o modelo traz um bom ajuste e que há oportunidade de ganhos em sua utilização na modelagem da EL(%).O mercado de crédito vem ganhando constantemente mais espaço na economia brasileira nos últimos anos. Haja vista isto, o risco de crédito, que tenta medir a perda com operações de crédito, tem fundamental importância e, neste contexto, a perda esperada é, sem dúvida, tema chave. Usualmente, a perda esperada relativa, EL (%), é modelada como o produto dos parâmetros de risco PD (probabilidade de default) e LGD (perda dado o default) pressupondo a independência dos mesmos. Trabalhos recentes mostram que pode haver oportunidade em melhorar o ajuste com a modelagem conjunta da perda, além da retirada da forte premissa de independência dos fatores. O presente trabalho utiliza a distribuição beta inflacionada, modelo BEINF da classe GAMLSS, para o ajuste da perda esperada relativa através de uma base de dados reais disponibilizada pela empresa Serasa Experian. Os resultados mostram que o modelo traz um bom ajuste e que há oportunidade de ganhos em sua utilização na modelagem da EL(%).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Duas classes de modelos buscam explicar o padrão de ajustamento de preço das firmas: modelos tempo-dependente e estado-dependente. O objetivo deste trabalho é levantar algumas evidencias empíricas de modo a distinguir os modelos, ou seja, identificar de que maneira as firmas realmente precificam. Para isso, escolheu-se a grande desvalorização cambial de 1999 como principal ferramenta e ambiente de análise. A hipótese fundamental é que o choque cambial impacta significativamente o custo de algumas indústrias, em alguns casos induzindo-as a alterarem seus preço após o choque. A partir de uma imensa base de micro dados formada por preços que compõem o CPI, algumas estimações importantes como a probabilidade e a magnitude média das trocas foram levantadas. A magnitude é dada por uma média simples, enquanto a probabilidade é estimada pelo método da máxima verossimilhança. Os resultados indicam um comportamento de precificação similar ao proposto por modelos estado-dependente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese é composta de três artigos. No primeiro artigo, "Simple Contracts under Simultaneous Adverse Selection and Moral Hazard", é considerado um problema de principal-agente sob a presença simultânea dos problemas de risco moral e seleção adversa, em que a dimensão de seleção adversa se dá sobre as distribuições de probabilidade condicionais as ações do agente. No segundo artigo, "Public-Private Partnerships in the Presence of Adverse Selection" é analisada a otimalidade de parcerias público-privadas sob a presença de seleção adversa. No terceiro artigo, "Regulation Under Stock Market Information Disclosure", por sua vez, é considerado o problema da regulação de firmas de capital aberto, onde as firmas possuem incentivos para mandar sinais opostos para o regulador e o mercado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Usamos uma série de ADRs de países da América Latina para replicar o estudo de Easley, Hvidkjaer e O’Hara (2002) sobre o efeito da negociação com informação diferenciada nos retornos dos ativos financeiros. Estimamos a probabilidade de negociação com informação diferenciada (PIN) e testamos a existência de um risco informacional sistemático em um modelo de apreçamento do tipo Fama-French. O principal resultado encontrado foi que o PIN médio dos ADRs latino americanos é maior que o PIN médio das empresas dos Estados Unidos. Entretanto, não conseguimos estabelecer uma relação clara entre o retorno dos ADRs e a sua respectiva probabilidade de negociação com informação diferenciada, sugerindo que a tecnologia de apreçamento adota não é especialmente adequada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo desta pesquisa é fornecer informações que propiciem ao gestor de convênios, condição necessária para apresentar uma prestação de contas com maior probabilidade de aceitação por parte da FINEP. Foram pesquisadas as causas dos erros mais frequentes detectados na execução financeira dos projetos que impedem a aprovação da prestação de contas no momento da análise. A pesquisa foi realizada em duas etapas: pesquisa documental e tratamento dos dados. A primeira etapa foi qualitativa constando de coleta de dados e análise documental. O período analisado foi de 01/01/2013 a 30/11/2013, por serem as mais recentes, abrangendo convênios assinados entre 2001 e 2012. Nesta pesquisa foram considerados todos os convênios analisados no período acima referido, apoiados com recursos FNDCT para desenvolvimento de estudos e pesquisas, analisados pela FINEP, e com ao menos uma impropriedade. A pesquisa documental foi realizada no Departamento de Prestação de Contas de Convênio, Termos e Acordos de Cooperação - DPC1, responsável pelo acompanhamento da execução financeira dos convênios na FINEP. Cabe informar que foram analisados 2.476 convênios ao todo no ano de 2013, sendo 1.248 aprovados e 1.228 com alguma impropriedade. A segunda etapa da pesquisa foi quantitativa, e a técnica por saturação, utilizando estatística descritiva com análise exploratória dos dados. O tratamento dos dados foi realizado a partir da distribuição de frequência observada. Como resultado da pesquisa, observa-se que as dez impropriedades mais recorrentes correspondem a 90% de todas as impropriedades do período analisado. Diante disto, cabe a proposta de orientação ao convenente, através de um FAQ no site da FINEP, abordando assuntos afetos a convênios assinados com recursos FNDCT, de fácil entendimento e acesso.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo desta tese é contribuir com a análise das emoções, a partir dos papéis da valência e da excitação emocional, como influenciadoras do compartilhamento de informação entre consumidores online. Pessoas compartilham onversando ou utilizando ferramentas de compartilhamento de conteúdo na internet, como as redes sociais virtuais. O compartilhamento de conteúdo na internet leva a uma maior difusão, fazendo com que eles se viralizem, ou seja, sejam retransmitidos diversas vezes, atingindo diferentes públicos (HO; DEMPSEY, 2010). Ainda há dúvidas na literatura sobre as causas desta viralização, e o quanto as emoções influenciam o processo, articularmente se as pessoas tendem a compartilhar mais o que lhes é positivo, o que lhes causa mais excitação (BERGER; MILKMAN, 2012) ou se há um perfil específico de consumidor que se engaja mais nessas ações, como os chamados advogados de marca, e como tal perfil se comporta. Para investigar isso, foram conduzidos quatro experimentos: o primeiro comparou a propensão a compartilhar notícias de valências emocionais e excitações diferentes, o segundo relacionou a propensão a compartilhar propagandas e notícias com valências diferentes, o terceiro analisou como advogados de marca declarados agem com relação a conteúdo de diferentes valências e o quarto comparou a propensão a compartilhar de propagandas com diferentes valências e estímulos ao compartilhamento (nenhum, dica de um amigo ou participação em um sorteio). Os conteúdos de valência positiva que geraram maior excitação ou tidos como mais úteis seriam mais compartilhados, enquanto advogados de marca deram ênfase em suas respostas ao conteúdo negativo, negando-o, justificando-o ou se abstendo, e foram mais intensos ao reclamar de problemas que eles próprios sofreram. Os principais achados desta tese são que a) conteúdo online de valência positiva e de alta excitação tem maior probabilidade de ser compartilhado, porém b) conteúdo online de valência negativa é tido como mais útil e gera maior excitação. Além disso, c) se o conteúdo for referente a uma marca com que o consumidor é engajado, ele reagirá com respostas mais circunstanciadas e d) se o conteúdo lhe for indicado por um amigo, ele tem maior chance de compartilhar. A principal contribuição desta tese é auxiliar na compreensão, teórica e gerencial, do compartilhamento entre usuários, avaliando o 9 impacto de conteúdo excitante ou útil, seja de valência positiva ou negativa, permitindo às organizações dimensionar seus esforços de comunicação e de relacionamento com clientes, com vistas a selecionar as abordagens mais adequadas às mensagens

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho explora um importante conceito desenvolvido por Breeden & Litzenberger para extrair informações contidas nas opções de juros no mercado brasileiro (Opção Sobre IDI), no âmbito da Bolsa de Valores, Mercadorias e Futuros de São Paulo (BM&FBOVESPA) dias antes e após a decisão do COPOM sobre a taxa Selic. O método consiste em determinar a distribuição de probabilidade através dos preços das opções sobre IDI, após o cálculo da superfície de volatilidade implícita, utilizando duas técnicas difundidas no mercado: Interpolação Cúbica (Spline Cubic) e Modelo de Black (1976). Serão analisados os quatro primeiros momentos da distribuição: valor esperado, variância, assimetria e curtose, assim como suas respectivas variações.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A avaliação de risco sísmico, fundamental para as decisões sobre as estruturas de obras de engenharia e mitigação de perdas, envolve fundamentalmente a análise de ameaça sísmica. Calcular a ameaça sísmica é o mesmo que calcular a probabilidade de que certo nível de determinada medida de intensidade em certo local durante um certo tempo seja excedido. Dependendo da complexidade da atividade geológica essas estimativas podem ser bas- tante sofisticadas. Em locais com baixa sismicidade, como é o caso do Brasil, o pouco tempo (geológico) de observação e a pouca quantidade de informação são fontes de muitas incer- tezas e dificuldade de análise pelos métodos mais clássicos e conhecidos que geralmente consideram, através de opiniões de especialistas, determinadas zonas sísmicas. Serão discutidas algumas técnicas de suavização e seus fundamentos como métodos al- ternativos ao zoneamento, em seguida se exemplifica suas aplicações no caso brasileiro.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho constrói um modelo de gerações sobrepostas em tempo contínuo de acumulação de capital. Os indivíduos passam por dois períodos de vida distintos. No primeiro, que transcorre entre o nascimento até a idade de T anos, os indivíduos ofertam trabalho inelasticamente, consomem e acumulam capital de forma ótima e se defrontam com uma probabilidade de morte nula. No segundo aposentam-se e passam a ter uma probabilidade de morte positiva, auferindo renda do patrimõnio acumulado ej ou recebendo transferências financiadas com imposto distorcido sobre a renda. Neste caso há um sistema de previdência de repartição simples. A partir da agregação das escolhas individuais, encontra-se uma equação para o capital de estado estacionário no sistema fundado e no sistema de repartição simples. Pode-se então calcular a renda de estado estacionário em cada um dos sistemas e a sensibilidade do diferencial de renda com ralação a diversos parâmetros.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste artigo desenvolvemos um modelo de otimização que permite determinar curvas de oferta para produtos perecíveis. As informações disponíveis ao produtor(vendedor) sobre a demanda são sumarizadas por uma distribuição de probabilidade, a qual lhe permitirá determinar a oferta que maximiza seu gannho esperado. A função objetivo levará em conta, conjuntamente, as perdas decorrentes de um estoque excedente e parcelas do custo de oportunidade de um estoque insuficiente. Esta formalização inclui a função lucro (contábil) como um caso particular. Aplicações do modelo teórico são feitas para demandas absolutamente contínuas com distribuição admitindo inversa explícita, tais como a exponencial truncada, Pareto, Weibull e uniforme. Estimativas empíricas são obtidas para a oferta de tomates, chuchus e pimentões no mercado varejista Carioca (Julho/94 à Nov/00). Os resultados obtidos confirmam as hipóteses racionais do modelo teórico. As elasticidades-preço da oferta (no varejo) e da demanda (no atacado) são estimadas, assim que o valor da oferta ”contratual ”, nos casos em que parte dos custos dos saldos de estoque são recuperados por vendas em liquidação. A análise gráfica das curvas de oferta e de densidade da demanda sugerem a presença de significativo poder de mercado na comercialização do pimentão. Duas extensões imediatas do modelo formal são desenvolvidas. A primeira delas incorpora a existência de poder de mercado no mercado varejista. A segunda introduz uma estrutura de jogo simultâneo no mercado oligopolista onde cada produtor escolhe a curva que maximiza seu lucro esperado condicional, dado que as ofertas dos concorrentes igualam suas demandas. No equilíbrio de Nash, curvas de oferta ótimas são obtidas. Comparações são feitas com as curvas ótimas obtidas em regime de autarquia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O pesquisador da FGV/DAPP João Victor participou, durante o mês de Julho, do 21º SINAPE - Simpósio Nacional de Probabilidade e Estatística, em Natal, a principal reunião científica da comunidade estatística brasileira. Durante uma semana, o pesquisador da DAPP participou de palestras e minicursos e apresentou seu projeto sobre Ferramentas para Formatação e Verificação de Microdados de Pesquisas, sob orientação do atual presidente-eleito do International Statistical Institute, Pedro Luis do Nascimento Silva.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A gestão de projetos provê uma maneira estruturada para que as empresas possam realizar suas iniciativas com uma maior probabilidade de sucesso. Porém, estudos mostram que o nível de falha nos projetos em dimensões básicas como tempo e custo ainda é alto. O objetivo deste trabalho de pesquisa foi identificar se os gerentes de projetos conhecem e utilizam as técnicas de planejamento e gestão de tempo e se estas técnicas podem levar ao sucesso no cumprimento do tempo originalmente planejado. Foi realizada uma pesquisa por meio de administração de formulário com 78 gerentes de projetos de São Paulo, destes foram obtidos 55 formulários completos e foi possível identificar que as técnicas mais conhecidas e utilizadas são do ciclo de vida linear e que, quanto maior o grau de uso destas técnicas, maior a frequência com que os gerentes de projeto atingem sucesso em seus projetos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese é constituída por três ensaios. O primeiro ensaio analisa a informação pública disponível sobre o risco das carteiras de crédito dos bancos brasileiros, sendo dividido em dois capítulos. O primeiro analisa a limitação da informação pública disponibilizada pelos bancos e pelo Banco Central, quando comparada a informação gerencial disponível internamente pelos bancos. Concluiu-se que existe espaço para o aumento da transparência na divulgação das informações, fato que vem ocorrendo gradativamente no Brasil através de novas normas relacionadas ao Pilar 3 de Basileia II e à divulgação de informações mais detalhas pelo Bacen, como, por exemplo, aquelas do “Top50” . A segunda parte do primeiro ensaio mostra a discrepância entre o índice de inadimplência contábil (NPL) e a probabilidade de inadimplência (PD) e também discute a relação entre provisão e perda esperada. Através da utilização de matrizes de migração e de uma simulação baseada na sobreposição de safras de carteira de crédito de grandes bancos, concluiu-se que o índice de inadimplência subestima a PD e que a provisão constituída pelos bancos é menor que a perda esperada do SFN. O segundo ensaio relaciona a gestão de risco à discriminação de preço. Foi desenvolvido um modelo que consiste em um duopólio de Cournot em um mercado de crédito de varejo, em que os bancos podem realizar discriminação de terceiro grau. Neste modelo, os potenciais tomadores de crédito podem ser de dois tipos, de baixo ou de alto risco, sendo que tomadores de baixo risco possuem demanda mais elástica. Segundo o modelo, se o custo para observar o tipo do cliente for alto, a estratégia dos bancos será não discriminar (pooling equilibrium). Mas, se este custo for suficientemente baixo, será ótimo para os bancos cobrarem taxas diferentes para cada grupo. É argumentado que o Acordo de Basileia II funcionou como um choque exógeno que deslocou o equilíbrio para uma situação com maior discriminação. O terceiro ensaio é divido em dois capítulos. O primeiro discute a aplicação dos conceitos de probabilidade subjetiva e incerteza Knigthiana a modelos de VaR e a importância da avaliação do “risco de modelo”, que compreende os riscos de estimação, especificação e identificação. O ensaio propõe que a metodologia dos “quatro elementos” de risco operacional (dados internos, externos, ambiente de negócios e cenários) seja estendida à mensuração de outros riscos (risco de mercado e risco de crédito). A segunda parte deste último ensaio trata da aplicação do elemento análise de cenários para a mensuração da volatilidade condicional nas datas de divulgação econômica relevante, especificamente nos dias de reuniões do Copom.