910 resultados para conditional least squares
Resumo:
O objetivo desse trabalho é mostrar a importância das instituições orçamentárias quando se estuda o efeito da descentralização sobre o tamanho dos governos subnacionais. No caso do Brasil, observamos que as mudanças institucionais iniciaram-se com a descentralização, oriunda de alterações determinadas pela Nova Constituição Federal de 1988, e que por sua vez possibilitou um conjunto de mudanças que determinou como resultado final a alteração do tamanho dos governos estaduais ao longo do tempo. Embora essas fossem promovidas pelo governo federal, a grande maioria delas aconteceu no sentido de tornar a restrição orçamentária dos governos estaduais mais hard, ou seja, os governos subnacionais teriam cada vez menos canais para ampliar seu endividamento, e com esse limitado, eles teriam que se adequar a uma realidade orçamentária mais rígida, em que as despesas teriam que seguir o comportamento das receitas; se essas crescessem, as despesas poderiam crescer, mas se houvesse uma diminuição, as despesas teriam que ser adequadas a esse novo montante de recurso. Das quatro mudanças nas instituições orçamentárias encontradas na literatura, três delas se mostraram importantes empiricamente na determinação do tamanho dos governos subnacionais: A Nova Constituição implantada em 1988, a mudança na forma de fazer orçamento (Efeito-Bacha) e a Lei de Responsabilidade Fiscal. Os resultados demonstraram que a primeira seguiu na direção de aumentar o tamanho dos governos subnacionais através do aumento de recursos transferidos via Fundo de Participação dos Estados; a segunda provocou uma diminuição no tamanho por impor uma nova realidade orçamentária, em que os governos deveriam trabalhar com o orçamento em termos reais de acordo com o que fosse determinado 6 em termos nominais; com relação à Lei de Responsabilidade Fiscal que apresentou um comportamento no sentido de aumentar o tamanho dos governos, há a questão da falta de observações em número suficiente para que seu resultado seja robusto, contudo já se percebe o sentido da influência que essa mudança teve. No caso da Renegociação das dívidas ocorrida entre os governos estaduais e a União, seu resultado mostrou-se mais como um choque negativo, do que como uma alteração que provocasse uma mudança de nível no tamanho dos governos. Trabalhamos com vinte e seis estados e um Distrito Federal entre os anos de 1986 e 2003 usando o modelo de Least Squares Dummy Variable (LSDV).
Resumo:
Este trabalho visa investigar o analfabetismo no Brasil a partir do uso de novas medidas de alfabetização inicialmente desenvolvidas por Basu e Foster (1998). Para tanto, primeiro se avalia o perfil de alfabetização da população brasileira de acordo com a definição de analfabetismo isolado. Entende-se por analfabetos isolados aqueles indivíduos analfabetos que não convivem com pessoas alfabetizadas em nível domiciliar. Segundo, busca-se evidências de externalidades domiciliares da alfabetização de filhos em aspectos relacionados a salários e à participação no mercado de trabalho de pais analfabetos. Devido à suspeita de causalidade reversa nas estimações por Mínimos Quadrados Ordinários (MQO) das equações que relacionam as variáveis de interesse dos pais com as alfabetizações dos filhos, utiliza-se as ofertas municipais de escolas e professores de primeiro grau como variáveis instrumentais para a alfabetização. Da investigação do perfil de alfabetização constata-se que a região Nordeste é a que apresenta os piores resultados entre as regiões do país, uma vez que é a que tem a maior parcela de analfabetos isolados do total. Tal resultado condiciona políticas públicas de alfabetização para essa região. As aplicações das medidas indicam que os rankings de alfabetização por estados são sensíveis às diferentes medidas. Os resultados encontrados das estimações por MQO indicam haver correlação positiva entre as variáveis dependentes dos pais e alfabetização dos filhos. Entretanto, a aplicação da metodologia de variáveis instrumentais não confirma os resultados das estimações por MQO. Contudo, devido à fragilidade dos resultados das estimações do primeiro estágio, não se pode afirmar que não há externalidades da alfabetização dos filhos para os pais.
Resumo:
This paper considers the general problem of Feasible Generalized Least Squares Instrumental Variables (FG LS IV) estimation using optimal instruments. First we summarize the sufficient conditions for the FG LS IV estimator to be asymptotic ally equivalent to an optimal G LS IV estimator. Then we specialize to stationary dynamic systems with stationary VAR errors, and use the sufficient conditions to derive new moment conditions for these models. These moment conditions produce useful IVs from the lagged endogenous variables, despite the correlation between errors and endogenous variables. This use of the information contained in the lagged endogenous variables expands the class of IV estimators under consideration and there by potentially improves both asymptotic and small-sample efficiency of the optimal IV estimator in the class. Some Monte Carlo experiments compare the new methods with those of Hatanaka [1976]. For the DG P used in the Monte Carlo experiments, asymptotic efficiency is strictly improved by the new IVs, and experimental small-sample efficiency is improved as well.
Resumo:
Essa tese foca em diferentes perspectivas sobre CSF (Fatores Críticos de Sucess) em implementações de ERP (Enterprise Resource Planning). A literatura atual foca nos CSF sob o ponto de vista da alta gerência da organização e classifica esses CSF baseado nessa visão. Essa tese irá apresentar a visão do time de implementação de ERP sob os principais CSF e irá utilizar um estudo de caso para avaliar se a alta gerência e o time de implementação compartilham a mesma visão. Além disso ess tese irá propor uma relação entre o sucesso na implementação de ERP e os CSF pesquisados, usando o método PLS (Partial Least Squares) para analisar as respostas do time de implementação a um questionário desenvolvido para medir sucesso na implementação de ERP.
Resumo:
O conceito de paridade coberta de juros sugere que, na ausência de barreiras para arbitragem entre mercados, o diferencial de juros entre dois ativos, idênticos em todos os pontos relevantes, com exceção da moeda de denominação, na ausência de risco de variação cambial deve ser igual a zero. Porém, uma vez que existam riscos não diversificáveis, representados pelo risco país, inerentes a economias emergentes, os investidores exigirão uma taxa de juros maior que a simples diferença entre as taxas de juros doméstica e externa. Este estudo tem por objetivo avaliar se o ajustamento das condições de paridade coberta de juros por prêmios de risco é suficiente para a validação da relação de não-arbitragem para o mercado brasileiro, durante o período de 2007 a 2010. O risco país contamina todos os ativos financeiros emitidos em uma determinada economia e pode ser descrito como a somatória do risco de default (ou risco soberano) e do risco de conversibilidade percebidos pelo mercado. Para a estimação da equação de não arbitragem foram utilizadas regressões por Mínimos Quadrados Ordinários, parâmetros variantes no tempo (TVP) e Mínimos Quadrados Recursivos, e os resultados obtidos não são conclusivos sobre a validação da relação de paridade coberta de juros, mesmo ajustando para prêmio de risco. Erros de medidas de dados, custo de transação e intervenções e políticas restritivas no mercado de câmbio podem ter contribuído para este resultado.
Resumo:
As fraudes contábeis representam uma grande perda para a economia global tanto na esfera pública quanto privada, destacando, assim, os prejuízos sociais ocasionados por elas. Nesta perspectiva, diversas pesquisas têm demonstrado que as denúncias são um dos principais mecanismos de detecção de fraudes nas organizações. Inspirado em Taylor e Curtis (2010), o presente trabalho tem como objetivo identificar a influência das “camadas” pessoal, organizacional, profissional na intenção individual em denunciar uma situação fraudulenta que o mesmo tenha conhecimento. Ressalta-se, porém, a inclusão de uma “camada social”, bem como a consideração de aspectos peculiares da cultura brasileira na elaboração e análise das hipóteses. Para operacionalização das camadas foram utilizadas variáveis latentes coletadas por meio de um questionário respondido por 124 contabilistas. Para mensuração da influência na intenção em denunciar foi utilizado um Modelo de Equação Estrutural (SEM) estimado pelo método dos Mínimos Quadrados Parciais (PLS). Os resultados obtidos confirmaram a importância das camadas de influência no comportamento do eventual denunciante. Destaca-se, principalmente, a importância da camada social, a qual, além de influenciar diretamente de forma significativa a Intenção de Denunciar, também media o impacto da camada profissional. A camada organizacional não afeta de forma significante a intenção de denunciar. Nota-se, também o grande impacto causado pela camada pessoal. Tais fatos corroboram alguns dos principais traços da cultura brasileira, como a prevalência de relações informais e pessoais em detrimento de relações formais, além de identificar os traços da ambiguidade moral.
Resumo:
O desenvolvimento do mercado financeiro e, principalmente, a abertura para o capital externo impulsionaram o desenvolvimento das boas práticas de governança corporativa. Um de seus benefícios é reduzir o custo de captação da empresa e, consequentemente, gerar maior valor para a companhia. Com o novo cenário, o conselho de administração tem um papel fundamental na atividade de governança corporativa, supervisionando a diretoria executiva. O presente trabalho investiga se a adoção de melhores práticas de governança corporativa diminui o risco das empresas. Adicionalmente, analisa se um grau de escolaridade mais alto entre membros do conselho de administração e da diretoria executiva impacta no risco. Para atingir o objetivo, adotou-se o método dos mínimos quadrados para regredir o risco, variável dependente, contra as variáveis independentes nível de governança corporativa e grau de escolaridade. Para o cálculo do risco, utilizaremos a metodologia apresentada por Estrada (2007), o downside beta, ou seja, risco que considera apenas os retornos negativos. Os resultados do estudo sugeriram que um nível de governança corporativa mais alto está presente nas empresas que apresentam um maior risco visto pelo mercado, indicando que as empresas que necessitam de captação, isto é, empresas mais alavancadas, são as empresas que necessitam de um nível de governança corporativa mais alto. Constatou-se, também, que empresas com nível de escolaridade mais alto entre membros do conselho de administração e da diretoria executiva apresentam maiores riscos, pois as empresas que necessitam de pessoas com maior grau de escolaridade são empresas que querem se desenvolver e, portanto, mais arriscadas.
Resumo:
O presente artigo estuda a relação entre corrupção e discricionariedade do gasto público ao responder a seguinte pergunta: regras de licitação mais rígidas, uma proxy para discricionariedade, resultam em menor prevalência de corrupção nos municípios brasileiros? A estratégia empírica é uma aproximação de regressões em dois estágios (2SLS) estimadas localmente em cada transição de regras de licitação, cuja fonte de dados de corrupção é o Programa de Fiscalização por Sorteio da CGU e os dados sobre discricionariedade são derivados da Lei 8.666/93, responsável por regular os processos de compras e construção civil em todas as esferas de governo. Os resultados mostram, entretanto, que menor discricionariedade está relacionada com maior corrupção para quase todos os cortes impostos pela lei de licitações.
Resumo:
Mensalmente são publicados relatórios pelo Departamento de Agricultura dos Estados Unidos (USDA) onde são divulgados dados de condições das safras, oferta e demanda globais, nível dos estoques, que servem como referência para todos os participantes do mercado de commodities agrícolas. Esse mercado apresenta uma volatilidade acentuada no período de divulgação dos relatórios. Um modelo de volatilidade estocástica com saltos é utilizado para a dinâmica de preços de milho e de soja. Não existe um modelo ‘ideal’ para tal fim, cada um dos existentes têm suas vantagens e desvantagens. O modelo escolhido foi o de Oztukel e Wilmott (1998), que é um modelo de volatilidade estocástica empírica, incrementado com saltos determinísticos. Empiricamente foi demonstrado que um modelo de volatilidade estocástica pode ser bem ajustado ao mercado de commodities, e o processo de jump-diffusion pode representar bem os saltos que o mercado apresenta durante a divulgação dos relatórios. As opções de commodities agrícolas que são negociadas em bolsa são do tipo americanas, então alguns métodos disponíveis poderiam ser utilizados para precificar opções seguindo a dinâmica do modelo proposto. Dado que o modelo escolhido é um modelo multi-fatores, então o método apropriado para a precificação é o proposto por Longstaff e Schwartz (2001) chamado de Monte Carlo por mínimos quadrados (LSM). As opções precificadas pelo modelo são utilizadas em uma estratégia de hedge de uma posição física de milho e de soja, e a eficiência dessa estratégia é comparada com estratégias utilizando-se instrumentos disponíveis no mercado.
Resumo:
A partir 2006, o INEP (Instituto Nacional de Estudos e Pesquisa) passou a divulgar anualmente as notas das escolas no Exame Nacional do Ensino Médio (Enem). Tal divulgação já faz parte do calendário das escolas, professores, jornais e revistas que cobrem o setor educacional e até de pais de alunos. Este estudo visa analisar o impacto da divulgação dessas notas na competição entre as instituições de ensino médio e, mais especificamente, avaliar o efeito da nota média das escolas concorrentes na nota de uma dada escola, em relação aos anos anteriores à divulgação. A concorrência será analisada do ponto de vista espacial, de modo que, o peso atribuído à nota de uma instituição na estimação da nota de outra escola é inversamente proporcional à distâncias entre as mesmas. Essa análise empírica de instituições públicas e privadas foi realizada por meio da estimação em mínimos quadrados, utilizando-se variáveis de controle relacionadas às instituições e ao perfil socioeconômico dos alunos. Para tanto, foram utilizadas as bases de microdados do Censo Escolar e do Enem no período de 2004 à 2011. Os resultados indicam a existência de competição entre as escolas, com aumento no grupo de escolas públicas no período posterior à divulgação.
Resumo:
No contexto de um mercado tão competitivo, ter equipes bem preparadas e alocadas adequadamente é fundamental para a sobrevivência das empresas. O presente estudo objetiva identificar o reflexo na satisfação dos clientes e nos resultados das empresas, a partir do conhecimento das pessoas que trabalham na linha de frente dessas empresas, aqueles profissionais que exercem um papel importante de negociação, identificando o que eles valorizam subjetivamente em uma negociação. Por meio da ferramenta SVI (Subjective Value Inventory), desenvolvida por Curhan et al (2006), a partir das dimensões de autoimagem independente e interdependente, busca-se identificar os valores subjetivos dos negociadores de um banco de varejo brasileiro, responsáveis por parte significativa das negociações e dos resultados da empresa, relativamente aos sentimentos sobre si mesmos (Self), aos resultados instrumentais, e ao processo e relacionamento (Rapport), utilizando a confiança interpessoal como moderadora nessa relação. Após identificados os valores subjetivos desses negociadores em negociação, relacionar os resultados encontrados com a satisfação dos clientes. Para isso, foi realizada uma pesquisa quantitativa, com a aplicação de um questionário fechado e estruturado a 532 negociadores desse banco que atuam nos estados de Santa Catarina, Rio de Janeiro e Maranhão, responsáveis pelo relacionamento, prospecção e realização de negócios com os clientes da instituição, nos segmentos pessoa física, micro e pequenas empresas e governo. Os dados foram analisados a partir de técnicas estatísticas, utilizando-se o método dos Mínimos Quadrados Parciais. Observou-se que mais de 40% da satisfação de cliente é explicada pelos valores subjetivos dos negociadores. O estudo apontou como resultados, dentre outros, que os gerentes de negócios com autoimagem independente valorizam o Self e os resultados instrumentais em uma negociação, e que a confiança interpessoal cognitiva modera negativamente essa relação. Ainda, que aqueles gerentes de negócios com autoimagem interdependente, valorizam o Rapport em uma negociação e que essa valorização está positivamente relacionada com a satisfação dos clientes.
Resumo:
Esta dissertação concentra-se nos processos estocásticos espaciais definidos em um reticulado, os chamados modelos do tipo Cliff & Ord. Minha contribuição nesta tese consiste em utilizar aproximações de Edgeworth e saddlepoint para investigar as propriedades em amostras finitas do teste para detectar a presença de dependência espacial em modelos SAR (autoregressivo espacial), e propor uma nova classe de modelos econométricos espaciais na qual os parâmetros que afetam a estrutura da média são distintos dos parâmetros presentes na estrutura da variância do processo. Isto permite uma interpretação mais clara dos parâmetros do modelo, além de generalizar uma proposta de taxonomia feita por Anselin (2003). Eu proponho um estimador para os parâmetros do modelo e derivo a distribuição assintótica do estimador. O modelo sugerido na dissertação fornece uma interpretação interessante ao modelo SARAR, bastante comum na literatura. A investigação das propriedades em amostras finitas dos testes expande com relação a literatura permitindo que a matriz de vizinhança do processo espacial seja uma função não-linear do parâmetro de dependência espacial. A utilização de aproximações ao invés de simulações (mais comum na literatura), permite uma maneira fácil de comparar as propriedades dos testes com diferentes matrizes de vizinhança e corrigir o tamanho ao comparar a potência dos testes. Eu obtenho teste invariante ótimo que é também localmente uniformemente mais potente (LUMPI). Construo o envelope de potência para o teste LUMPI e mostro que ele é virtualmente UMP, pois a potência do teste está muito próxima ao envelope (considerando as estruturas espaciais definidas na dissertação). Eu sugiro um procedimento prático para construir um teste que tem boa potência em uma gama de situações onde talvez o teste LUMPI não tenha boas propriedades. Eu concluo que a potência do teste aumenta com o tamanho da amostra e com o parâmetro de dependência espacial (o que está de acordo com a literatura). Entretanto, disputo a visão consensual que a potência do teste diminui a medida que a matriz de vizinhança fica mais densa. Isto reflete um erro de medida comum na literatura, pois a distância estatística entre a hipótese nula e a alternativa varia muito com a estrutura da matriz. Fazendo a correção, concluo que a potência do teste aumenta com a distância da alternativa à nula, como esperado.
Resumo:
O presente trabalho investigou o valor de uma floresta nativa no bioma Mata Atlântica. Para isso, utilizou-se da metodologia de custo de reposição. Além disso, buscou-se explicitar os principais fatores determinantes desse valor, bem como seus impactos. Foram formuladas quatro hipóteses de pesquisa, a saber, i) o nível de degradação da área não influencia o custo total de reposição da floresta nativa; ii) relevos mais acidentados das áreas a serem restauradas não influenciam o custo total de reposição da floresta nativa; iii) a distância da área a ser restaurada em relação ao centro urbano mais próximo não influencia o custo total de reposição da floresta nativa; e iv) a distância da área a ser restaurada em relação ao viveiro produtor de mudas não influencia o custo total de reposição da floresta nativa. Para chegar aos resultados foram realizados testes simples de diferença de médias para as variáveis qualitativas. Os resultados encontrados foram de que pode-se rejeitar a hipótese de que relevos mais acidentados das áreas a serem restauradas não influenciam o custo total de reposição da floresta nativa. No entanto, não se rejeitam as hipóteses de que a distância da área a ser restaurada em relação ao centro urbano mais próximo não influencia o custo total de reposição da floresta nativa e de que a distância da área a ser restaurada em relação ao viveiro produtor de mudas não influencia o custo total de reposição da floresta nativa. Após essa primeira aproximação, é realizada uma série de regressões, utilizando o modelo clássico de mínimos quadrados ordinários (MQO). Fez-se uma análise de sensibilidade dos resultados obtidos. O levantamento de dados foi obtido por meio da realização de uma pesquisa (questionário) a uma série de entidades do setor. Foram testadas as quatro hipóteses. De acordo com os testes realizados, pode-se dizer que a hipótese 2 sobre o impacto de um relevo mais acidentado das áreas a serem restauradas no custo total de reposição da floresta nativa se mostrou não significativa em todos os modelos. No entanto, a hipótese 1 do impacto do nível de degradação sobre o valor do projeto foi rejeitada em todos os modelos. A hipótese 3 do impacto da localização da área em relação ao centro urbano sobre o valor do projeto foi rejeitada em dois modelos e a hipótese 4 de que a distância da área a ser restaurada em relação ao viveiro produtor de mudas não influencia o custo total de reposição da floresta nativa foi rejeitada em um modelo. Chegou-se ao resultado de R$22 mil/hectare para o custo de reposição de uma floresta nativa do bioma Mata Atlântica. Esse tipo de estudo foi contextualizado no desenvolvimento feito pela economia ambiental ao longo do tempo, ressaltando suas principais características. Nas conclusões destaca-se os principais pontos do trabalho e são discutidas uma série de implicações teóricas e gerenciais do presente estudo, bem como apresentadas sugestões para novos estudos nessa área.
Resumo:
In recent years, emerging countries have assumed an increasingly prominent position in the world economy, as growth has picked up in these countries and slowed in developed economies. Two related phenomena, among others, can be associated with this growth: emerging countries were less affected by the 2008-2009 global economic recession; and they increased their participation in foreign direct investment, both inflows and outflows. This doctoral dissertation contributes to research on firms from emerging countries through four independent papers. The first group of two papers examines firm strategy in recessionary moments and uses Brazil, one of the largest emerging countries, as setting for the investigation. Data were collected through a survey on Brazilian firms referring to the 2008-2009 global recession, and 17 hypotheses were tested using structural equation modeling based on partial least squares. Paper 1 offered an integrative model linking RBV to literatures on entrepreneurship, improvisation, and flexibility to indicate the characteristics and capabilities that allow a firm to have superior performance in recessions. We found that firms that pre-recession have a propensity to recognize opportunities and improvisation capabilities for fast and creative actions have superior performance in recessions. We also found that entrepreneurial orientation and flexibility have indirect effects. Paper 2 built on business cycle literature to study which strategies - pro-cyclical or counter-cyclical – enable superior performance in recessions. We found that while most firms pro-cyclically reduce costs and investments during recessions, a counter-cyclical strategy of investing in opportunities created by changes in the environment enables superior performance. Most successful are firms with a propensity to recognize opportunities, entrepreneurial orientation to invest, and flexibility to efficiently implement these investments. The second group of two papers investigated international expansion of multinational enterprises, particularly the use of distance for their location decisions. Paper 3 proposed a conceptual framework to examine circumstances under which distance is less important for international location decisions, taking the new perspective of economic institutional distance as theoretical foundation. The framework indicated that the general preference for low-distance countries is lower: (1) when the company is state owned, rather than private owned; (2) when its internationalization motives are asset, resource, or efficiency seeking, as opposed to market seeking; and (3) when internationalization occurred after globalization and the advent of new technologies. Paper 4 compared five concurrent perspectives of distance and indicated their suitability to the study of various issues based on industry, ownership, and type, motive, and timing of internationalization. The paper also proposed that distance represents the disadvantages of host countries for international location decisions; as such, it should be used in conjunction with factors that represent host country attractiveness, or advantages as international locations. In conjunction, papers 3 and 4 provided additional, alternative explanations for the mixed empirical results of current research on distance. Moreover, the studies shed light into the discussion of differences between multinational enterprises from emerging countries versus those from advanced countries.
Resumo:
A concessão de crédito bancário demanda esforço do agente credor que se dedica de forma ativa na obtenção de informações relativas à firma, até então não disponíveis ao público. Dado o hold up power do banco detentor de informações não públicas, este deveria poder cobrar spreads mais altos do que seria justificado unicamente pelo risco de crédito do tomador ao longo dos ciclos econômicos, sendo tal dinâmica mais acentuada em cenários de crise. Testa-se aqui esta hipótese e para isso são comparadas as variações do spread bancário médio da dívida de empresas brasileiras com diferentes composições de endividamento, levando-se em conta sua dependência do crédito bancário. Foram criadas: i) uma variável dummy identificando o acesso ao crédito direto para que se pudesse avaliar o seu efeito nos spreads; ii) outra dummy identificando cenários de recessão que permite avaliar o impacto do ciclo econômico nos spreads e iii) dummy interação que viabilizou o estudo do efeito combinado das duas variáveis anteriores. Fatores de risco individuais da firma, tais como tamanho, nível de alavancagem e sua natureza em termos de restrição a crédito foram controlados na análise. Os dados foram organizados em painel com os quais foi montada regressão linear valendo-se da técnica Estimated Generalized Least Squares (EGLS), alternativa ao Least Squares (LS) clássico. Encontrou-se evidência estatística de que em cenários de recessão econômica o acesso ao mercado direto de crédito traz efeito benéfico sobre os spreads bancários pagos pelas firmas.