968 resultados para Distribuições de probabilidade


Relevância:

20.00% 20.00%

Publicador:

Resumo:

O escopo desta dissertação será analisar a estrutura do Valor do Cliente no setor de telecomunicações móveis no Brasil com foco no mercado corporativo. Esta dissertação tem os seguintes objetivos: i) Identificar os atributos da estrutura de Valor do Cliente (VC) corporativo no setor de telecomunicações móveis que mais impactam na probabilidade de lealdade de clientes ii) Calcular o Valor do Cliente (VC) iii) Segmentar os clientes com base no Valor do Cliente (VC)

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A falta de qualificação da população brasileira tem sido muito criticada e estudos sobre a qualificação da mão-de-obra no Brasil são considerados prioritários no debate sobre desenvolvimento econômico. Com o intuito de contribuir nesse sentido, este artigo investiga se o ensino profissionalizante aumentou a probabilidade de inserção profissional e a renda dos egressos até meados da década de 1990, comparativamente aos que não cursaram esse tipo de ensino. Foram utilizados os microdados da Pesquisa sobre Padrões de Vida (PPV) de 1996 do IBGE, que tem informações sobre educação profissionalizante e é a única no Brasil que pode ser considerada geograficamente abrangente, uma vez que representa as regiões SE e NE. Não há no Brasil outro estudo geograficamente abrangente sobre esse tema. Os resultados revelam que os egressos de cursos profissionalizantes de nível básico tinham renda esperada 37% maior que a de indivíduos que não fizeram esse tipo de curso no ensino fundamental. Por outro lado, para os egressos do ensino profissionalizante de nível tecnológico, observa-se uma redução de 27% da renda esperada, comparativamente aos que não fizeram esse tipo de curso no ensino superior. Os cursos técnicos oferecidos em empresas reduzem a probabilidade de desemprego e têm um forte impacto positivo sobre os rendimentos. Nestes casos, é bastante provável que os trabalhadores mais hábeis sejam selecionados. Assim sendo, ainda há espaço na literatura nacional para estudos sobre o tema que controlem as habilidades individuais, como estudos com dados de painel.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Contaminação da confiança é um caso especial de incerteza Knightiana ou ambiguidade na qual o tomador de decisões está diante de não apenas uma única distribuição de probabilidades, mas sim de um conjunto de distribuições de probabilidades. A primeira parte desta tese tem o propósito de fornecer uma caracterização da contaminação da confiança e então apresentar um conjunto de axiomas comportamentais simples sob os quais as preferências de um tomador de decisões é representada pela utilidade esperada de Choquet com contaminação da confiança. A segunda parte desta tese apresenta duas aplicações econômicas de contaminação da confiança: a primeira delas generaliza o teorema de existência de equilíbrio de Nash de Dow e Werlang (o que permite apresentar uma solução explícita para o paradoxo segundo o qual os jogadores de um jogo do dilema dos prisioneiros com um número infinito de repetições não agem de acordo com o esperado pelo procedimento da indução retroativa) e a outra estuda o impacto da contaminação da confiança na escolha de portfolio.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Após o surgimento e a expansão exponencial, a internet evoluiu para uma tecnologia que extrapolou os contornos acadêmicos em que foi criada, desenvolvendo diversas e simultâneas vocações, entre elas, fonte de educação e lazer, armazenamento de informações, rede de computadores, meio de comunicação individual e veículo de mídia de massa. É esta vocação, de veículo de mídia, que provocou o interesse pela pesquisa objeto desta dissertação. A entrada da internet no ambiente de mídia tem renovado o interesse na questão do consumo de mídia. Particularmente, a crescente popularidade como novo meio de comunicação resultou em mudanças nos usos dos meios tradicionais, como teorizado na Teoria do Nicho aplicada à indústria de mídia. O declínio da audiência das grandes redes de TV aberta mostra como o setor vem reagindo à concorrência de novos canais, à emergência de novas plataformas de acesso à programação televisiva e à mudança nos hábitos de consumo de mídia. Esta investigação faz uma revisão da literatura e compara o panorama internacional e especialmente a situação do Brasil, onde as principais emissoras de sinal aberto tentam resistir ao processo de fragmentação do público que se registra mundialmente. Para melhor compreender o que significam tais mudanças, é primordial entender quais as variáveis relevantes no universo dos veículos de mídia. A principal delas é a audiência, que representa o número de pessoas que acessam, veem, leem, ouvem ou consomem determinado meio de comunicação em determinado espaço de tempo. O objetivo deste estudo foi desenvolver um modelo preditivo sobre o tempo despendido pelas pessoas na internet, a partir de informações sociodemográficas e do comportamento dessas pessoas enquanto audiência dos meios de comunicação tradicionais, particularmente a televisão. Como os dados secundários analisados apresentam respostas em categorias ordinais, foi escolhido a regressão logística ordinal como o modelo de probabilidades para realizar esse estudo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A presente pesquisa visa identificar os fatores que influenciam a inovação tecnológica em micro e pequenas empresas brasileiras, por meio da análise dos dados secundários da Pesquisa de Inovação Tecnológica (PINTEC 2008), conduzida pelo Instituto Brasileiro de Geografia e Estatística (IBGE) junto a 16.371 empresas de ramos industriais e de serviços selecionados. Para tanto, foi feita a modelagem estatística dos microdados relativos à sub-amostra formada pelas 3.092 micro e pequenas empresas inquiridas pela PINTEC 2008. A análise das correlações entre as variáveis que influenciam as inovações e quatro variáveis que caracterizam o tipo e a abrangência das inovações tecnológicas – inovação em produto para o mercado nacional, inovação em produto para o mercado mundial, inovação em processo para o mercado nacional, inovação em processo para o mercado mundial – permitiu selecionar as variáveis independentes mais significativas em termos de influência sobre a ocorrência de inovação em micro e pequenas empresas. Com base nessas mesmas correlações, foram elaboradas regressões logísticas (logit), nas quais as variáveis dependentes escolhidas foram as quatro variáveis caracterizadoras do tipo e da abrangência da inovação acima mencionadas, e as variáveis independentes foram selecionadas dentre aquelas com maior poder explicativo sobre a ocorrência de inovação. Foram tomadas as devidas precauções para evitar a ocorrência de multicolinearidade nas regressões. Os resultados das regressões, analisados à luz da revisão bibliográfica, revelam a importância das variáveis independentes para a ocorrência de inovação em micro e pequenas empresas, e ajudam nas reflexões sobre possíveis melhorias nas políticas de estímulo à inovação tecnológica em micro e pequenas empresas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta pesquisa tem o objetivo de identificar as variáveis e sua influência na propensão à aquisição de crédito pessoal, propondo um modelo estatístico de propensão ao financiamento por cartões de crédito híbridos para maximização de contratação de crédito e otimização dos esforços de marketing. O estudo descritivo pode gerar insights para a compreensão da expansão do crédito ao consumo, sobretudo num contexto de escassez de opções de financiamento e limitação no canal de distribuição. Foram usados dados de uma base de clientes de uma instituição financeira com variáveis sócio demográficas e transacionai, e o modelo matemático foi seguido da validação de sua capacidade preditiva.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho, baseado na teoria de Jean Piaget sobre o desenvolvimento do pensamento adolescente, visa continuar a mesma linha de investigação no que se refere à aquisição do conceito de probabilidade. O conceito de probabilidade na teoria piagetiana representando a intercepção do real e do possível, foi submetido, neste trabalho, a uma análise crítica e a um projeto de verificação experimental. Em termos teóricos, a crítica orientou-se para a relação entre os canais sensoriais receptores de informação e a organização do nível formal que permite elaborar relações de probabilidade. Importante papel foi atribuído ao estudo da manipulação - expressão direta da ação em seus níveis primordiais - como fator determinante de elaboração específica nas relações de probabilidade. Uma segunda vertente sociogênica do problema foi analisada em termos do nível sócio-econômico como fator que influencia o desenvolvimento do pensamento formal e especificamente a aquisição do conceito de probabilidade. Em termos de verificação experimental, constatou se a possibilidade de se definirem diversos estágios de desenvolvimento, chegando-se a classificar, de modo geral, os sujeitos em: aqueles que ainda não possuem habilidade de pensamento para solução de problema de probabilidade, aqueles que já apresentam tal habilidade, porém, são incapazes de generalização, e outros, em menor parte, que têm estabelecidas as estruturas operatórias do período lógico formal. Dentre estes grupos somente o último faz uso sistemático de estratégias corretas e corresponde aos sujeitos adolescentes do sexo masculino. Isto mostra que existe uma diferença nos resultados devido às diferenças sexuais a favor do sexo masculino e que a capacidade de lidar com relações probabilísticas se torna mais organizada e estruturada com o avanço da idade dos sujeitos. As variáveis ambientais exercem influência no rendimento do sujeito, os resultados variam de acordo com o meio socio econômico, favorecendo os de nível superior, isto é, permitindo-lhes um desenvolvimento normal.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nas duas últimas décadas, a estimação de probabilidade vem ocupando um lugar de destaque em periódicos estrangeiros, relativos à estatística, administração e psicologia. Tal fato vem ocorrendo porque a matéria é aplicável diretamente a problemas que envolvam o conceito de decisão. É o caso típico, por exemplo, da estimação da probabilidade de sucesso relativa ao lançamento de um produto novo no mercado, ou ainda da probabilidade de que a taxa de retorno sobre um investimento atinja determinados níveis.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação tem por objetivo primário encontrar uma métrica de risco para bancos elegível a ser uma componente específica em futuros modelos de custo de capital. Como objetivo secundário, este trabalho descreve um processo de modelagem passível de ser estendido a outros segmentos bancários. O conjunto de contribuições deste trabalho consiste na visão de aplicação, no objeto de estudo (bancos de pequeno e médio porte com baixa diversificação de produtos ou segmentos no sistema financeiro brasileiro) e na acessibilidade do processo de modelagem estruturado

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O trabalho busca através de um exercício empírico, extrair as curvas de probabilidade implícita de default em debêntures brasileiras. A construção ocorre em duas etapas. O primeiro desafio é obter as estruturas a termo das debêntures brasileiras. Foi utilizada a revisão proposta por Diebold e Li (2006) do modelo de Nelson Siegel (1987) para construç o das ETTJs. A segunda etapa consiste em extrair a probabilidade de default utilizado a forma reduzida do modelo de Duffie e Singleton (1999). A fração de perda em caso de default foi considerada constante conforme estudo de Xu e Nencioni (2000). A taxa de decaimento também foi mantida constante conforme proposto por Diebold e Li (2006) e Araújo (2012). O exercício foi replicado para três datas distintas durante o ciclo de redução de juros no Brasil. Dentre os resultados desse estudo identificou-se que os agentes do mercado reduziram a probabilidade de default dos emissores durante esse período. A redução nos vértices mais curtos foi mais significativa do que em vértices mais longos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho aborda os fundamentos da relação entre a medida neutra a risco e o mundo físico, apresentando algumas metodologias conhecidas de transformação da medida de probabilidade associada a cada um destes dois contextos. Mostramos como titulos de crédito podem ser utilizados para a estimação da probabilidade de inadimplência de seus emissores, explicitando os motivos que fazem com que ela não reflita, em um primeiro momento, os dados observados historicamente. Utilizando dados de empresas brasileiras, estimamos a razão entre a probabilidade de default neutra a risco e a probabilidade de default real. Tais resultados, quando comparados com outros trabalhos similares, sugerem que a razão do prêmio de risco de empresas brasileiras possui valor maior do que a de empresas americanas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objectivo desta tese é discutir o uso das distribuições hiperbólicas generalizadas como modelo para os retornos logarítmicos de 4 activos do mercado de capitais Português. Os activos em análise são o índice Português PSI 20 e as 3 maiores empresas pertencentes ao PSI 20: PT, EDP e BCP. Os dados são constituidos pelos valores de fecho diário durante mais de 8 anos. Utilizando o software R procederemos à estimação dos parâmetros das distribuições para ajustamento aos dados empíricos. Para medir o grau de ajustamento das distribuições aos dados empíricos usamos os gráficos QQ-plots e 4 distâncias: Kolmogorov-Smirnov, Kuiper, Anderson-Darling e Fajardo-Farias-Ornelas. Os resultados obtidos permitem concluir que o melhor ajustamento é feito pela hiperbólica generalizada e em seguida a distribuição normal inversa gaussiana. Todas as distribuições desta família ajustam-se muito melhor que a distribuição normal. Por último temos uma aplicação ao cálculo do preço de derivados financeiros, nomeadamente a fórmula de uma opção de compra Europeia no modelo discutido.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Na unfolding method of linear intercept distributions and secction área distribution was implemented for structures with spherical grains. Although the unfolding routine depends on the grain shape, structures with spheroidal grains can also be treated by this routine. Grains of non-spheroidal shape can be treated only as approximation. A software was developed with two parts. The first part calculates the probability matrix. The second part uses this matrix and minimizes the chi-square. The results are presented with any number of size classes as required. The probability matrix was determined by means of the linear intercept and section area distributions created by computer simulation. Using curve fittings the probability matrix for spheres of any sizes could be determined. Two kinds of tests were carried out to prove the efficiency of the Technique. The theoretical tests represent ideal cases. The software was able to exactly find the proposed grain size distribution. In the second test, a structure was simulated in computer and images of its slices were used to produce the corresponding linear intercept the section area distributions. These distributions were then unfolded. This test simulates better reality. The results show deviations from the real size distribution. This deviations are caused by statistic fluctuation. The unfolding of the linear intercept distribution works perfectly, but the unfolding of section area distribution does not work due to a failure in the chi-square minimization. The minimization method uses a matrix inversion routine. The matrix generated by this procedure cannot be inverted. Other minimization method must be used