914 resultados para Distorted probabilities
Resumo:
Excessive labor turnover may be considered, to a great extent, an undesirable feature of a given economy. This follows from considerations such as underinvestment in human capital by firms. Understanding the determinants and the evolution of turnover in a particular labor market is therefore of paramount importance, including policy considerations. The present paper proposes an econometric analysis of turnover in the Brazilian labor market, based on a partial observability bivariate probit model. This model considers the interdependence of decisions taken by workers and firms, helping to elucidate the causes that lead each of them to end an employment relationship. The Employment and Unemployment Survey (PED) conducted by the State System of Data Analysis (SEADE) and by the Inter-Union Department of Statistics and Socioeconomic Studies (DIEESE) provides data at the individual worker level, allowing for the estimation of the joint probabilities of decisions to quit or stay on the job on the worker’s side, and to maintain or fire the employee on the firm’s side, during a given time period. The estimated parameters relate these estimated probabilities to the characteristics of workers, job contracts, and to the potential macroeconomic determinants in different time periods. The results confirm the theoretical prediction that the probability of termination of an employment relationship tends to be smaller as the worker acquires specific skills. The results also show that the establishment of a formal employment relationship reduces the probability of a quit decision by the worker, and also the firm’s firing decision in non-industrial sectors. With regard to the evolution of quit probability over time, the results show that an increase in the unemployment rate inhibits quitting, although this tends to wane as the unemployment rate rises.
Resumo:
Estudo da teoria das opções reais que incorpora à avaliação de projetos de investimentos, as opções de crescimento e as flexibilidades gerenciais que surgem devido às incertezas existentes no ambiente no qual as empresas operam. Aborda os métodos tradicionais de avaliação de investimentos baseados no fluxo de caixa descontado (FCD), destaca as suas vantagens e limitações; a teoria das opções reais mostrando suas vantagens em relação aos métodos tradicionais; e um estudo de caso. Tem como objetivo principal apresentar que a teoria das opções reais é viável e complementar aos métodos tradicionais de avaliação de investimentos na indústria de mineração de ferro, com a abordagem da avaliação em tempo discreto. Este método permite especificar o problema de análise e resolvê-lo com o uso de programa de software de análise de decisão disponível no mercado de forma mais simples e mais intuitivo que os métodos tradicionais de avaliação de opções reais e permite maior flexibilidade na modelagem do problema de avaliação. A modelagem das opções reais do projeto baseia-se no uso de árvore de decisão binomial para modelar o processo estocástico. A avaliação é realizada em quatro passos de acordo com a metodologia proposta por Copeland e Antikarov (2001) e Brandão e Dyer (2005): modelagem do ativo básico, ou seja, cálculo do valor presente líquido sem flexibilidade; criação do modelo binomial utilizando o software computacional para modelar o ativo básico, computando as probabilidades neutras a risco; modelagem das opções reais no projeto; e resolução da árvore binomial, ou seja, análise das opções reais. Os resultados apresentados demonstram que é possível implementar a abordagem da avaliação de opções reais em projetos de investimentos na indústria de mineração de ferro.
Resumo:
No presente estudo são abordados dois dentre os aspectos essenciais dos testes projetivos: o conceito de projeção e os determinantes inerentes à situação de testagem ou seja, as propriedades estimuladoras do instrumento, o examinador e o contexto situacional. O conceito de projeção é analisado conforme as conceituações formuladas por diversos autores, questionando-se a adequação do termo teste "projetivo". Em relação às propriedades do estímulo, é discutida a hipótese usual segundo a qual o teste "projetivo" é ambíguo e carece de significação objetiva. No que diz respeito ao examinador e ao contexto situacional, é ressaltado o fato de que o processo de testagem implica em uma interação entre o examinador e o sujeito dentro do contexto em que o instrumento é aplicado. Esta dissertação se restringe ao Psicodiagnóstico de Rorschach, ao Teste de Apercepção Temática e ao Desenho da Figura Humana, por serem os mais utilizados no processo de diagnostico psicológico. É focalizado o conceito de projeção em sua conotação múltipla, que se presta a interpretações distorcidas acerca dos mecanismos psicológicos envolvidos durante a testagem projetiva. Busca-se também oferecer suporte à afirmação de que a resposta projetiva é multi determinada, sendo essencial à sua interpretação que seja considerada como resultante da interação entre estímulo, contexto e variáveis do sujeito.
Resumo:
The hypothesis that child labor impacts future income generation negatively, for it harms the formal acquisition of education, is widely accepted by the existing literature on this issue. However, some researchers agree that labor might be beneficial to teenagers once they can develop skills, acquire job experience, or even help them to afford their own education acquisition. Thus, the main goal of this study is to assess if there is an age which the negative impact of the early access to the labor market over income and the conclusion of high school, during the adulthood of Brazilian people, becomes positive. To do so, PNADs (Pesquisas Nacionais de Amostra de Domicílios), a National Census of Household Samples, issues 1992 to 2011, were utilized plus the employment of an econometric technique called pseudo-panel. For this analysis, generations of people born between 1982 and 1991 were observed from the ages 10 to 17 (child labor) and from the ages 20 to 29 (conclusion of high-school & income). The results show that starting at the age of 15, the negative effect of an early access to the labor market over income, between ages 20-29, becomes positive. As per high-school, it was observed that accessing the labor market before the age 15 diminishes the probability for an individual to conclude high school before the age 21. From this age on, labor does not have a negative impact anymore. The second goal of this study is to assess how much of the reduction of the child labor occurrence in Brazil for the past years is due to changes of economic and demographic characteristics of children and families. For these analyses PNADs - National Census of Household Samples, issues 2003 to 2011, were employed plus the methodology of decomposition that divides the variation of child labor into 2 components: (a) changing of the probability of children with the same characteristics (intragroup) to start working – access labor market & (b) changing of the distribution of characteristics (intergroups). The results show that the reduction of the child labor occurrence is due, mainly, to changes on the probabilities. In general terms, the occurrence of child labor took place, more significantly, among individuals of the ages 15 to 17 & household heads with less education. Besides the characteristics mentioned, the reduction between non-white individuals was also significant among individuals from 4-member families. The results show that the reduction of child labor took place, mainly, among children and teenagers from non-white and poor families.
Resumo:
O propósito deste Estudo de Caso é descrever, comparar e interpretar informações que nos permita confirmar a importância da utilização de uma ferramenta de gestão durante os processos de negociação. Com a ajuda destas ferramentas, negociadores poderão maximizar as probabilidades de sucesso em suas negociações, dada a visão estratégica que estas oferecem nos estágios de preparação, desenvolvimento e conclusão das negociações. Quando utilizada adequadamente, a ferramenta dará aos negociadores uma visão mais ampla em cada etapa, muito além de somente pontos técnicos e/ou comerciais inerentes a um determinado projeto, os quais comumente são considerados. Para suportar este Estudo de Caso, foi realizada uma Pesquisa Qualitativa junto a profissionais de vendas de várias Empresas do Setor de Telcomunicações no Brasil, a qual vem apoiada por material teórico de autores de referência, objetivando confortar a percepção limitada pelas próprias características da pesquisa qualitativa. Este estudo avalia, diagnostica e recomenda soluções de gestão de negociações, à luz da técnica da criação de consensos suportadas e conduzidas pela ferramenta MNC (Matriz de Negociações Complexas), tendo como base os resultados finais de uma negociação comercial ocorrida em finais de 2003 entre duas grandes multinacionais do Setor de Telecomunicações e cujo principal objetivo na época era a obtenção de um contrato para expansão e modernização de uma Rede CDMA WLL de Telefonia Fixa Celular pertencente a uma Operadora. No decorrer da negociação a qual é abordada como exemplo, não foram utilizadas técnicas semelhantes àquelas sustentadas pela MNC, importante ferramenta de gestão de negociação, a qual já vem sendo utilizada inclusive pelo CDES (Conselho de Desenvolvimento Econômico e Social) do Brasil, nem tampouco nenhuma outra ferramenta de gestão. Este trabalho objetiva demonstrar que sua aplicação na organização, acompanhamento, diagnose, condução e conclusão de negociações, quaisquer que sejam estas, pode aumentar a probabilidade de êxito, trazendo para as Organizações, Instituições ou para aqueles que a adotarem, maior eficácia na condução e alcance dos resultados finais almejados. É apresentada uma análise diagnóstica dos parâmetros envolvidos na negociação em questão, passando por aqueles que estavam em desacordo com a ferramenta como o Contexto, as Opções, a Comunicação, o Relacionamento, as Concessões, o Facilitador, etc., e que foram considerados inconsistentes ou que eventualmente tenham passado despercebidos pelos negociadores, apresentando como conclusão os resultados comparativos entre a negociação utilizando-se os parâmetros da MNC e aqueles obtidos sem a utilização dos mesmos. Este estudo procura sustentar que a adoção desta ferramenta possui grande importância para a melhoria de desempenho durante os processos de negociação, não significando todavia, uma garantia de êxito sobre todas as negociações nas quais os negociadores estiverem envolvidos. Autores como Roger Fisher e Willian Ury (1981) sustentam que as pessoas negociam para obter um resultado melhor do que o que obteriam caso não negociassem. Desta forma, pode-se notar que de maneira direta ou indireta, no decorrer de nossas vidas sempre estivemos e a cada dia novamente estaremos nos deparando com a necessidade em participar de algum novo processo de negociação, diariamente, desde o mais básico ao mais complexo. A negociação passa a ser para o indivíduo uma ciência extremamente necessária e ao mesmo tempo complexa, atraente e sedutora, cuja percepção da necessidade de desenvolvimento dessas habilidades pode muitas vezes passar despercebida por muitos no transcorrer de suas vidas. As conclusões deste estudo de caso têm a intenção de demonstrar também que o sucesso de uma negociação nem sempre se resumirá em atingir os objetivos inicialmente propostos na MNC. Outros aspectos considerados por esta metodologia, se melhor ou pior aplicados, também poderão contribuir para o eventual sucesso ou fracasso de uma negociação.
Resumo:
Esta tese é composta por três artigos. Dois deles investigam assuntos afeitos a tributação e o terceiro é um artigo sobre o tema “poupança”'. Embora os objetos de análise sejam distintos, os três possuem como característica comum a aplicação de técnicas de econometria de dados em painel a bases de dados inéditas. Em dois dos artigos, utiliza-se estimação por GMM em modelos dinâmicos. Por sua vez, o artigo remanescente é uma aplicação de modelos de variável dependente latente. Abaixo, apresenta-se um breve resumo de cada artigo, começando pelos dois artigos de tributação, que dividem uma seção comum sobre o ICMS (o imposto estadual sobre valor adicionado) e terminando com o artigo sobre poupança. O primeiro artigo analisa a importância da fiscalização como instrumento para deter a evasão de tributos e aumentar a receita tributária, no caso de um imposto sobre valor adicionado, no contexto de um país em desenvolvimento. O estudo é realizado com dados do estado de São Paulo. Para tratar questões relativas a endogeneidade e inércia na série de receita tributária, empregam-se técnicas de painel dinâmico. Utiliza-se como variáveis de controle o nível do PIB regional e duas proxies para esforço fiscal: a quantidade e o valor das multas tributárias. Os resultados apontam impacto significativo do esforço fiscal nas receitas tributárias. O artigo evidencia, indiretamente, a forma como a evasão fiscal é afetada pela penalidade aplicada aos casos de sonegação. Suas conclusões também são relevantes no contexto das discussões sobre o federalismo fiscal brasileiro, especialmente no caso de uma reforma tributária potencial. O segundo artigo examina uma das principais tarefas das administrações tributárias: a escolha periódica de contribuintes para auditoria. A melhora na eficiência dos mecanismos de seleção de empresas tem o potencial de impactar positivamente a probabilidade de detecção de fraudes fiscais, provendo melhor alocação dos escassos recursos fiscais. Neste artigo, tentamos desenvolver este mecanismo calculando a probabilidade de sonegação associada a cada contribuinte. Isto é feito, no universo restrito de empresas auditadas, por meio da combinação “ótima” de diversos indicadores fiscais existentes e de informações dos resultados dos procedimentos de auditoria, em modelos de variável dependente latente. Após calculados os coeficientes, a probabilidade de sonegação é calculada para todo o universo de contribuintes. O método foi empregado em um painel com micro-dados de empresas sujeitas ao recolhimento de ICMS no âmbito da Delegacia Tributária de Guarulhos, no estado de São Paulo. O terceiro artigo analisa as baixas taxas de poupança dos países latino-americanos nas últimas décadas. Utilizando técnicas de dados em painel, identificam-se os determinantes da taxa de poupança. Em seguida, faz-se uma análise contrafactual usando a China, que tem apresentado altas taxas de poupança no mesmo período, como parâmetro. Atenção especial é dispensada ao Brasil, que tem ficado muito atrás dos seus pares no grupo dos BRICs neste quesito. O artigo contribui para a literatura existente em vários sentidos: emprega duas amplas bases de dados para analisar a influência de uma grande variedade de determinantes da taxa de poupança, incluindo variáveis demográficas e de previdência social; confirma resultados previamente encontrados na literatura, com a robustez conferida por bases de dados mais ricas; para alguns países latino-americanos, revela que as suas taxas de poupança tenderiam a aumentar se eles tivessem um comportamento mais semelhante ao da China em outras áreas, mas o incremento não seria tão dramático.
Resumo:
Este trabalho apresenta um estudo do impacto das negociações algorítmicas no processo de descoberta de preços no mercado de câmbio. Foram utilizados dados de negociação de alta frequência para contratos futuros de reais por dólar (DOL), negociados na Bolsa de Valores de São Paulo no período de janeiro a junho de 2013. No intuito de verificar se as estratégias algorítmicas de negociação são mais dependentes do que as negociações não algorítmicas, foi examinada a frequência em que algoritmos negociam entre si e comparou-se a um modelo benchmark que produz probabilidades teóricas para diferentes tipos de negociadores. Os resultados obtidos para as negociações minuto a minuto apresentam evidências de que as ações e estratégias de negociadores algorítmicos parecem ser menos diversas e mais dependentes do que aquelas realizadas por negociadores não algorítmicos. E para modelar a interação entre a autocorrelação serial dos retornos e negociações algorítmicas, foi estimado um vetor autorregressivo de alta frequência (VAR) em sua forma reduzida. As estimações mostram que as atividades dos algoritmos de negociação causam um aumento na autocorrelação dos retornos, indicando que eles podem contribuir para o aumento da volatilidade.
Resumo:
Esta tese é composta de três artigos. No primeiro artigo, "Simple Contracts under Simultaneous Adverse Selection and Moral Hazard", é considerado um problema de principal-agente sob a presença simultânea dos problemas de risco moral e seleção adversa, em que a dimensão de seleção adversa se dá sobre as distribuições de probabilidade condicionais as ações do agente. No segundo artigo, "Public-Private Partnerships in the Presence of Adverse Selection" é analisada a otimalidade de parcerias público-privadas sob a presença de seleção adversa. No terceiro artigo, "Regulation Under Stock Market Information Disclosure", por sua vez, é considerado o problema da regulação de firmas de capital aberto, onde as firmas possuem incentivos para mandar sinais opostos para o regulador e o mercado.
Resumo:
O trabalho busca através de um exercício empírico, extrair as curvas de probabilidade implícita de default em debêntures brasileiras. A construção ocorre em duas etapas. O primeiro desafio é obter as estruturas a termo das debêntures brasileiras. Foi utilizada a revisão proposta por Diebold e Li (2006) do modelo de Nelson Siegel (1987) para construç o das ETTJs. A segunda etapa consiste em extrair a probabilidade de default utilizado a forma reduzida do modelo de Duffie e Singleton (1999). A fração de perda em caso de default foi considerada constante conforme estudo de Xu e Nencioni (2000). A taxa de decaimento também foi mantida constante conforme proposto por Diebold e Li (2006) e Araújo (2012). O exercício foi replicado para três datas distintas durante o ciclo de redução de juros no Brasil. Dentre os resultados desse estudo identificou-se que os agentes do mercado reduziram a probabilidade de default dos emissores durante esse período. A redução nos vértices mais curtos foi mais significativa do que em vértices mais longos.
Resumo:
This paper constructs an indicator of Brazilian GDP at the monthly ftequency. The peculiar instability and abrupt changes of regimes in the dynamic behavior of the Brazilian business cycle were explicitly modeled within nonlinear ftameworks. In particular, a Markov switching dynarnic factor model was used to combine several macroeconomic variables that display simultaneous comovements with aggregate economic activity. The model generates as output a monthly indicator of the Brazilian GDP and real time probabilities of the current phase of the Brazilian business cycle. The monthly indicator shows a remarkable historical conformity with cyclical movements of GDP. In addition, the estimated filtered probabilities predict ali recessions in sample and out-of-sample. The ability of the indicator in linear forecasting growth rates of GDP is also examined. The estimated indicator displays a better in-sample and out-of-sample predictive performance in forecasting growth rates of real GDP, compared to a linear autoregressive model for GDP. These results suggest that the estimated monthly indicator can be used to forecast GDP and to monitor the state of the Brazilian economy in real time.
Resumo:
The value of life methodology has been recently applied to a wide range of contexts as a means to evaluate welfare gains attributable to mortality reductions and health improvements. Yet, it suffers from an important methodological drawback: it does not incorporate into the analysis child mortality, individuals’ decisions regarding fertility, and their altruism towards offspring. Two interrelated dimensions of fertility choice are potentially essential in evaluating life expectancy and health related gains. First, child mortality rates can be very important in determining welfare in a context where individuals choose the number of children they have. Second, if altruism motivates fertility, life expectancy gains at any point in life have a twofold effect: they directly increase utility via increased survival probabilities, and they increase utility via increased welfare of the offspring. We develop a manageable way to deal with value of life valuations when fertility choices are endogenous and individuals are altruistic towards their offspring. We use the methodology developed in the paper to value the reductions in mortality rates experienced by the US between 1965 and 1995. The calculations show that, with a very conservative set of parameters, altruism and fertility can easily double the value of mortality reductions for a young adult, when compared to results obtained using the traditional value of life methodology.
Resumo:
A new form of composition of the indicators employed to generate the United Nations Human Development Index (HDI) is presented here. This form of composition is based on the assumption that random errors affect the measurement of each indicator. This assumption allows for replacing the vector of evaluations according to each indicator by vectors of probabilities of being the best or the worst according to such attribute. The probabilistic composition of such probabilities of preference according to each indicator into probabilities of being the best or the worst according to all of them generates indices that may unveil, on one hand, performances to be followed and, on the other hand, extreme conditions that an additive composition would hide. Differences between the results of application of the diverse forms of composition are examined in the case of the HDI and in the case of the districts version of the HDI employed to compare Brazilian municipalities. It is verified that the smallest correlation between the education.
Resumo:
Esta tese tem por objetivo analisar a equidade educacional no Brasil, em 2001 e 2011. Para tanto, avaliarei as oportunidades dos alunos de terem professores mais qualificados, verificando a evolução por gênero, cor/raça e nível socioeconômico. O referencial teórico da tese divide-se em duas partes: o debate sobre equidade e a discussão sobre a importância da escola e de seus recursos e processos internos. Na primeira parte, apresento diversas perspectivas sobre equidade e proponho a divisão do campo em três linhas, além de inserir o debate num contexto mais amplo sobre justiça social. Utilizarei, nesta pesquisa, a abordagem pluralista, que entende equidade como um termo que engloba recursos, processos e resultados. Na segunda parte, trato da importância da escola para o desempenho dos alunos a partir da apresentação de pesquisas que comprovam que as escolas são peças fundamentais para o desempenho dos alunos, principalmente em países desiguais. Dentre os recursos e processos escolares, verifica-se que os professores têm o maior impacto sobre as notas – e, portanto, são capazes de trazer maior contribuição para políticas educacionais equitativas. O debate sobre a importância da escola e dos professores para o desempenho dos alunos é particularmente relevante no Brasil, onde a literatura demonstra um grande impacto das escolas e dos professores sobre os resultados escolares, atrelado a uma enorme desigualdade na distribuição dos recursos. Feita a discussão teórica, apresento o modelo elaborado para analisar a equidade no Brasil, em 2001 e 2011. Desenvolvi um modelo logístico para determinar as oportunidades de um aluno ter professores mais qualificados – classificados, neste trabalho, a partir de quatro características: diploma de ensino superior, pós-graduação, experiência em sala de aula e que faça a cobertura do currículo. São apresentadas duas especificações do modelo: simples, que contém apenas características dos alunos como variáveis independentes; e completa, que, além das características dos alunos, inclui informações sobre os estados, sobre o tipo de rede (privada ou pública) e sobre a localidade (rural ou urbana). As análises são conduzidas para o 5º e 9º ano, em 2001 e 2011, utilizando os dados do SAEB de Língua Portuguesa e Matemática. Os resultados apontam para quatro conclusões importantes: em primeiro lugar, o nível socioeconômico mostrou-se mais relevante na determinação das oportunidades educacionais em comparação à cor/raça ou gênero dos alunos; em segundo lugar, há semelhança nas tendências de desempenho do 5º e 9º anos, com a identificação de três padrões de evolução das oportunidades educacionais; em terceiro lugar, verifica-se que o impacto das características observáveis dos professores sobre a proficiência dos alunos mudou de 2001 a 2011, em decorrência das políticas de incentivo à escolarização docente; por fim, verifica-se grande heterogeneidade dentre os estados brasileiros, com os estados das regiões Sul e Sudeste garantindo maior oportunidade educacional aos alunos. Com base nestes resultados, aponto, nas considerações finais, para três pilares presentes em países mais equitativos: a definição de padrões mínimos de recursos e processos; a adoção de políticas compensatórias e a discriminação positiva na distribuição dos recursos; e, por fim, o investimento nos professores.
Resumo:
Este trabalho demonstra como podemos usar opções sobre o Índice de Taxa Média de Depósitos Interfinanceiros de Um Dia (IDI) para extrair a função densidade de probabilidade (FDP) para os próximos passos do Comitê de Política Monetária (COPOM). Como a decisão do COPOM tem uma natureza discreta, podemos estimar a FDP usando Mínimo Quadrados Ordinários (MQO). Esta técnica permite incluir restrições sobre as probabilidades estimadas. As probabilidades calculadas usando opções sobre IDI são então comparadas com as probabilidades encontradas usando o Futuro de DI e as probabilidades calculadas através de pesquisas.