1000 resultados para Modelo com dados em painel


Relevância:

90.00% 90.00%

Publicador:

Resumo:

Este estudo utiliza o modelo de fronteira estocástica paramétrica com dados em painel para estimação das funções de produção asso- ciadas aos grupos da indústria de transfomação brasileira no período de 1996-2005. Um ponto importante dessa técnica é a possibilidade de utilização de um conjunto de variáveis explicativas para o com- ponente de ine ciência. Com o objetivo de captar as dinâmicas da fronteira tecnológica e do nível de ine ciência foram introduzidos com- ponentes de tendência linear e quadrática. Veri cou-se para o período a ocorrência de aumento do nível de ine ciência técnica e de progresso tecnológico a taxas constantes. Observou-se ainda que o nível de ine - ciência relaciona-se negativamente com os salários médios do pessoal direta e indiretamente ligado à produção, com o percentual de tributos sobre a receita total ,com o grau de terceirização e com o percentual da receita total originário da atividade principal da indústria.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

O objetivo desta dissertação é avaliar se há correlação significativa entre a receita orçamentária municipal, em termos per capita, e seu grau de desenvolvimento humano medido pelo indicador IDH. Para tanto foi proposto um modelo econométrico com o emprego de dados em painel aplicado a uma amostra de 2264 cidades brasileiras nos anos de 1991 e 2000. Para testar a robustez dos resultados preliminares, os municípios foram segregados ainda conforme a região geográfica em que estão localizados e segundo o tamanho da população residente em seus territórios. Independentemente do agrupamento efetuado os resultados se mantiveram bastante estáveis, sendo possível concluir que a relação entre a receita orçamentária per capita municipal e o IDH é muito fraca, embora estatisticamente significante. Outra importante conclusão deste estudo é que quanto pior os indicadores sociais do município observado, maior é o aumento marginal esperado no IDH em função de acréscimos na sua arrecadação per capita.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Frente ao crescente interesse e necessidade de buscar mais informações sobre a real relação do capital humano, nesse caso educação, com o crescimento econômico brasileiro, esta tese procurou examinar suas dinâmicas de inter-relação seguindo os modelos clássicos de abrangência na área, exógeno e endógeno. Dessa forma, apresenta-se, na primeira parte do trabalho uma resenha sobre os textos clássicos na área de estudo de crescimento econômico, exógeno e endógeno, que são os de MANKIW; ROMER e WEIL (1992), LUCAS (1988 e 1993) ROMER (1990) e KLENOW e RODRIGUEZ-CLARE (1997), focando na análise das diferentes formas de medir a variável capital humano (CH). Diferenças não faltam para medi-la, assim como formatos diferentes de expressar a mesma variável de representatividade de qualificação educacional. Este processo de análise tomou por base a proposta do ISCED-1997 elaborado pela UNESCO. Na segunda parte do trabalho buscou-se através de dois trabalhos (LAU et al., 1993; BENHABIB; SPIEGEL, 1994; ANDRADE, 1997) desenvolvidos para análise da economia brasileira, mais precisamente estadual, analisar e comparar, via crosssection e dados de painel, qual o efeito da escolaridade sobre o crescimento econômico nacional entre o período de 1970 e 2001. A terceira parte apresenta um segundo grupo de análises empíricas desenvolvido neste trabalho envolvendo a variável capital humano. Através do trabalho desenvolvido por SAB e SMITH (2001 e 2002), buscou analisar a convergência do capital humano no âmbito estadual (Brasil) através do processo da convergência condicional e não condicional. Concluiu-se que existe uma relação tênue entre as variáveis educação e crescimento econômico para os estados e o Brasil como um todo. Isso devido aos mais diversos fatores como qualidade dos dados, período analisado (tamanho da amostra), as diferentes medidas de capital humano, as diferenças de modelagem das variáveis. Sugere-se, portanto, que outras variáveis representativas inseridas nos modelos, em conjunto com a educação, podem mostrar resultados mais significativos para explicar o desenvolvimento econômico destas regiões e do país.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Este trabalho tem como meta uma exposição sucinta sobre as relações entre economia e meio ambiente, que foram, durante muito tempo, ignoradas ou relegadas a um plano secundário pela grande maioria dos economistas. Essas relações passaram a ser melhor investigadas após os choques do petróleo na década de 70, que mudaram radicalmente o enfoque sobre o binômio economia-meio ambiente, contribuindo também para essa mudança os efeitos cada vez mais visíveis causados pela poluição desenfreada do planeta. Discute-se também sobre o conceito de desenvolvimento sustentável, bem como sobre sua evolução ao longo do tempo e as duas visões concorrentes sobre essa questão, além de abordar, resumidamente, a qualidade ambiental e os recursos naturais de propriedade comum como bens públicos. O trabalho também traça um paralelo entre os modelos de crescimento neoclássicos e os modelos de crescimento endógeno, no que se refere à incorporação de variáveis ambientais, como poluição, energia e recursos naturais. Como contribuição empírica para a conexão entre capital natural e crescimento econômico, procuramos estimar a relação entre estoque de terras, empregado como proxy para o capital natural, e o crescimento da renda per capita para as unidades federativas brasileiras, a partir de 1970, por meio de uma relação cúbica empregando dados de painel. Verificamos que, quando se consideram, para o cálculo do índice de expansão agrícola, os dados referentes à área agrícola utilizada, que é a soma da área agrícola permanente mais a área agrícola temporária, o modelo empregado é significativo e bem especificado. Neste caso, constatamos um padrão de “explosão e quebra” do processo de crescimento econômico associado à expansão da lavoura agrícola das unidades federativas brasileiras.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Este trabalho propõe maneiras alternativas para a estimação consistente de uma medida abstrata, crucial para o estudo de decisões intertemporais, o qual é central a grande parte dos estudos em macroeconomia e finanças: o Fator Estocástico de Descontos (SDF, sigla em Inglês). Pelo emprego da Equação de Apreçamento constrói-se um inédito estimador consistente do SDF que depende do fato de que seu logaritmo é comum a todos os ativos de uma economia. O estimador resultante é muito simples de se calcular, não depende de fortes hipóteses econômicas, é adequado ao teste de diversas especificações de preferência e para a investigação de paradoxos de substituição intertemporal, e pode ser usado como base para a construção de um estimador para a taxa livre de risco. Alternativas para a estratégia de identificação são aplicadas e um paralelo entre elas e estratégias de outras metodologias é traçado. Adicionando estrutura ao ambiente inicial, são apresentadas duas situações onde a distribuição assintótica pode ser derivada. Finalmente, as metodologias propostas são aplicadas a conjuntos de dados dos EUA e do Brasil. Especificações de preferência usualmente empregadas na literatura, bem como uma classe de preferências dependentes do estado, são testadas. Os resultados são particularmente interessantes para a economia americana. A aplicação de teste formais não rejeita especificações de preferências comuns na literatura e estimativas para o coeficiente relativo de aversão ao risco se encontram entre 1 e 2, e são estatisticamente indistinguíveis de 1. Adicionalmente, para a classe de preferência s dependentes do estado, trajetórias altamente dinâmicas são estimadas para a tal coeficiente, as trajetórias são confinadas ao intervalo [1,15, 2,05] e se rejeita a hipótese de uma trajetória constante.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

O trabalho investiga os elementos condicionantes das finanças públicas dos governos estaduais brasileiros nos anos noventa, partindo da hipótese de que, a despeito dos elementos econômicos serem relevantes, a concepção neoclássica de gestão das finanças públicas não é adequada para tratar a questão fiscal em toda sua extensão, exigindo que ela seja entendida como um problema de economia política. A partir da análise da literatura disponível sobre o tema, é proposto um modelo para se investigar a importância efetiva de variáveis não econômicas sobre o déficit público e sobre os gastos dos estados brasileiros. Para analisar a influência das variáveis políticas e institucionais escolhidas ¿ ideologia do partido no governo estadual, coincidência ideológica com o partido no poder executivo federal, fragmentação da representação política do poder executivo, e do poder legislativo, grau de competitividade eleitoral, participação do eleitorado no pleito e ciclo eleitoral ¿ os modelos foram estimados através da técnica econométrica para dados de painel, com dados dos vinte e seis estados e Distrito Federal no período de 1990 a 2000. Para representar os gastos públicos foram utilizadas as despesas correntes não financeiras divididas pelo PIB estadual e para representar o déficit público, o resultado fiscal primário (despesas e receitas não financeiras) dividido pelo PIB estadual. Para os gastos públicos o trabalho econométrico evidenciou a existência de influência significativa de todas as variáveis propostas, enquanto para o resultado fiscal primário, apenas as variáveis: ciclo eleitoral, fragmentação partidária do poder executivo e coincidência ideológica de partidos no poder executivo estadual e federal mostraram-se estatisticamente aceitáveis.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

As teorias sobre risco sistemático iniciadas em 1932 com Knight sempre buscaram determinar variáveis que pudessem explicar e determinar o nível de risco sistemático de um sistema financeiro. Neste sentido, este estudo propôs-se a investigar as variáveis que possam determinar o nível de risco sistemático de um país, utilizando um modelo de mercado para estimação de betas e regressões com dados em painel sobre uma base de dados de janeiro de 1997 a setembro de 2008 para 40 países. Utilizou-se como variáveis, o PIB, inflação, câmbio, taxa real de juros e concentração de mercado. Verificou-se que o modelo apresenta indícios que as variáveis utilizadas podem ser consideradas como determinantes do risco sistemático e ainda, que o nível de concentração de um mercado acionário pode determinar o nível de risco sistemático de um país.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

O presente trabalho estuda um dos principais temas recentes da literatura de Economia Internacional, a saber: a teoria da proteção endógena. A importância do tema pode ser evidenciada pela interface que o mesmo apresenta entre os vários ramos da ciência. De um lado os cientistas políticos se inclinam para a análise do interesse privado na forma da atuação dos grupos de interesse. Do outro, os economistas preocupados com o estudo do efeito da atuação de tais grupos na determinação da estrutura de proteção tarifária. Para apresentar a visão dos economistas, o presente trabalho é dividido em três ensaios auto-contidos e, ao mesmo tempo, interdependentes. No primeiro, são identificadas as situações conflituosas no âmbito do Mercosul. Ainda, são resenhados os principais trabalhos que dão suporte ao estudo de grupos de interesse. No segundo ensaio são apresentados os principais modelos de proteção endógena, bem como é formulado um jogo para se avaliar a atuação de grupos de interesse no Mercosul, especificamente aqueles que atuam na economia brasileira. O modelo elaborado apresenta um contribuição ao modelo original de Grossman e Helpman(1994) ao incorporar na análise a variável emprego setorial, a qual pode ser objetivada pelo governo. No último ensaio são apresentadas as principais estruturas empíricas de análise e, baseando-se no instrumental de dados de painel, são apresentados os principais resultados que corroboram a hipótese da proteção endógena, recentemente publicados. Conclui-se, finalmente, que a política comercial é, na verdade, o resultado da atuação de grupos de interesse e a perspectiva sugerida pelos teóricos do livre comércio não têm encontrado espaço para a sua justificação.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

A modelagem conceitual de banco de dados geográficos (BDG) é um aspecto fundamental para o reuso, uma vez que a realidade geográfica é bastante complexa e, mais que isso, parte dela é utilizada recorrentemente na maioria dos projetos de BDG. A modelagem conceitual garante a independência da implementação do banco de dados e melhora a documentação do projeto, evitando que esta seja apenas um conjunto de documentos escritos no jargão da aplicação. Um modelo conceitual bem definido oferece uma representação canônica da realidade geográfica, possibilitando o reuso de subesquemas. Para a obtenção dos sub-esquemas a serem reutilizados, o processo de Descoberta de Conhecimento em Bancos de Dados (DCBD – KDD) pode ser aplicado. O resultado final do DCBD produz os chamados padrões de análise. No escopo deste trabalho os padrões de análise constituem os sub-esquemas reutilizáveis da modelagem conceitual de um banco de dados. O processo de DCBD possui várias etapas, desde a seleção e preparação de dados até a mineração e pós-processamento (análise dos resultados). Na preparação dos dados, um dos principais problemas a serem enfrentados é a possível heterogeneidade de dados. Neste trabalho, visto que os dados de entrada são os esquemas conceituais de BDG, e devido à inexistência de um padrão de modelagem de BDG largamente aceito, as heterogeneidades tendem a aumentar. A preparação dos dados deve integrar diferentes esquemas conceituais, baseados em diferentes modelos de dados e projetados por diferentes grupos, trabalhando autonomamente como uma comunidade distribuída. Para solucionar os conflitos entre esquemas conceituais foi desenvolvida uma metodologia, suportada por uma arquitetura de software, a qual divide a fase de préprocessamento em duas etapas, uma sintática e uma semântica. A fase sintática visa converter os esquemas em um formato canônico, a Geographic Markup Language (GML). Um número razoável de modelos de dados deve ser considerado, em conseqüência da inexistência de um modelo de dados largamente aceito como padrão para o projeto de BDG. Para cada um dos diferentes modelos de dados um conjunto de regras foi desenvolvido e um wrapper implementado. Para suportar a etapa semântica da integração uma ontologia é utilizada para integrar semanticamente os esquemas conceituais dos diferentes projetos. O algoritmo para consulta e atualização da base de conhecimento consiste em métodos matemáticos de medida de similaridade entre os conceitos. Uma vez os padrões de análise tendo sido identificados eles são armazenados em uma base de conhecimento que deve ser de fácil consulta e atualização. Novamente a ontologia pode ser utilizada como a base de conhecimento, armazenando os padrões de análise e possibilitando que projetistas a consultem durante a modelagem de suas aplicações. Os resultados da consulta ajudam a comparar o esquema conceitual em construção com soluções passadas, aceitas como corretas.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

O presente trabalho tem como objetivo avaliar a relação existente entre o retorno de um fundo, o seu tamanho, o total de recursos sob gestão da instituição gestora, entre outros fatores. Para a realização dos testes propostos, utilizamos o modelo de regressão com dados em painel. Consideramos para a análise os últimos cinco anos de informações disponíveis (maio de 2005 a abril de 2010) para duas categorias de fundos: Multimercados e Renda Variável. Outro ponto que buscamos investigar neste trabalho são os fatores que explicam a captação dos fundos. Neste caso, como possíveis variáveis explicativas, utilizamos, por exemplo, o retorno do fundo e seu Índice de Sharpe nos últimos 6 meses.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

A falta de qualificação da população brasileira tem sido muito criticada e estudos sobre a qualificação da mão-de-obra no Brasil são considerados prioritários no debate sobre desenvolvimento econômico. Com o intuito de contribuir nesse sentido, este artigo investiga se o ensino profissionalizante aumentou a probabilidade de inserção profissional e a renda dos egressos até meados da década de 1990, comparativamente aos que não cursaram esse tipo de ensino. Foram utilizados os microdados da Pesquisa sobre Padrões de Vida (PPV) de 1996 do IBGE, que tem informações sobre educação profissionalizante e é a única no Brasil que pode ser considerada geograficamente abrangente, uma vez que representa as regiões SE e NE. Não há no Brasil outro estudo geograficamente abrangente sobre esse tema. Os resultados revelam que os egressos de cursos profissionalizantes de nível básico tinham renda esperada 37% maior que a de indivíduos que não fizeram esse tipo de curso no ensino fundamental. Por outro lado, para os egressos do ensino profissionalizante de nível tecnológico, observa-se uma redução de 27% da renda esperada, comparativamente aos que não fizeram esse tipo de curso no ensino superior. Os cursos técnicos oferecidos em empresas reduzem a probabilidade de desemprego e têm um forte impacto positivo sobre os rendimentos. Nestes casos, é bastante provável que os trabalhadores mais hábeis sejam selecionados. Assim sendo, ainda há espaço na literatura nacional para estudos sobre o tema que controlem as habilidades individuais, como estudos com dados de painel.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Este artigo analisa a evolução e os determinantes do movimento simultâneo de entrada e saída de empregados nas empresas, aqui tratado como churning, o termo adotado na língua inglesa. Restringiu-se a atenção ao setor formal da indústria, na Região Metropolitana de São Paulo (RMSP), entre 1991 e 1999, situações contempladas pela base de dados utilizada. É mostrado que o churning foi responsável por mais da metade da rotatividade da mão-de-obra, que inclui também o movimento de contratação e demissão de empregados sem que ocorra, necessariamente, a substituição. Mostra-se também que o churning não altera significativamente o perfil de qualificação dos empregados das firmas. Finalmente, é estimado um modelo econométrico, utilizando técnicas para tratamento de dados em painel, a partir de dados da Relação Anual de Informações Sociais (Rais) desagregados por firmas. Conclui-se que, em nível agregado, o aumento da taxa de desemprego reduz o churning, enquanto no nível setorial, o aumento do nível de emprego aumenta o churning.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Um Sistema gerenciador de Bancos de Dados (SGBD) possui como principal característica a capacidade de gerenciar bases de dados que representam parte do mundo real. Para que essa representação seja fiel, os dados presentes em uma base de dados devem obedecer a diversas regras conhecidas como restrições de integridade. Estas podem ser provenientes da realidade modelada, da implementação ou do modelo de dados utilizado. O suporte oferecido por sistemas gerenciadores de bancos de dados tradicionais não é suficientemente adequado a certas aplicações com necessidades que vão além das convencionais. Diversas aplicações necessitam armazenar dados históricos em conjunto com seus períodos de validade. Outras precisam armazenar versões de conjuntos de dados, gerenciando suas agregações e formas de representação. Através do suporte aos conceitos de tempo e de versão, provido por um SGBD, grande parte dessas necessidades é suprida. Este tipo de banco de dados usa o conceito de tempo para armazenar e controlar dados históricos enquanto o conceito de versão permite a gerência de alternativas de projeto. Existem atualmente diversos trabalhos e implementações relacionados à manutenção de restrições de integridade sobre bancos de dados tradicionais. Entretanto, restrições que consideram a gerência de tempo e de versões sobre dados ainda representam uma área de pesquisa praticamente inexplorada. De acordo com essa realidade, o primeiro objetivo do presente trabalho consiste em definir uma classificação de restrições de integridade para bases de dados com suporte a tempo e versões, a fim de prover uma base para o desenvolvimento de pesquisas relacionadas à sua especificação e manutenção. O segundo objetivo consiste em agregar ao Modelo Temporal de Versões (TVM), que suporta os conceitos de tempo e de versão, uma linguagem que permita a especificação de restrições de integridade. Esta linguagem considera características relacionadas à temporalidade e ao versionamento dos dados e das próprias restrições.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Esta tese pretende analisar a questão de ciclos políticos eleitorais em dois estudos, sendo o primeiro deles um teste empírico sobre a existência de ciclos políticos eleitorais nos municípios brasileiros e sua relação com a interação estratégica e o segundo faz uma investigação a respeito da existência de ciclos políticos eleitorais na taxa de câmbio, considerando não apenas o evento eleitoral, como também o início propaganda eleitoral gratuita nos meios de comunicação. O primeiro estudo busca testar a teoria de ciclos políticos eleitorais para os municípios brasileiros, levando em consideração as variáveis fiscais da microrregião, bem como sua contrapartida política. Em particular, este trabalho adiciona controles espaciais (fiscais e políticos) ao modelo tradicional de ciclos políticos eleitorais. O teste econométrico foi realizado para o período entre 1997 e 2008 usando a técnica de dados em painel com instrumentos, seguindo Lockwood e Migali (2009). Os resultados encontrados nas estimações sugerem que existe interação espacial para as despesas de saúde e educação (efeito marginal médio de R$ 1,42 per capita), mas não encontramos evidência de ciclo político por interações espaciais para estes gastos. Já para os gastos com investimentos, o ciclo político eleitoral é conduzido não por características intrínsecas do próprio município, mas sim pelo fato de que os gastos dos municípios localizados ao redor influenciam positivamente nos investimentos do município em questão (efeito marginal médio de R$ 1,23 per capita). No segundo estudo foi desenvolvido um teste empírico para tentar captar a relação dos momentos eleitorais (considerando as três últimas eleições presidenciais – 1998, 2002 e 2006) com a taxa de câmbio real no Brasil. O exercício estima a relação da taxa de câmbio com dummies de eleição e de propaganda eleitoral gratuita, através de modelos GARCH e EGARCH. Estima-se o efeito destas variáveis sobre a média da taxa de câmbio e a sua volatilidade, que pode ser aproximada como uma medida de risco. Os resultados encontrados sugerem que em 1998 o incumbente pode ter atuado não diretamente na apreciação cambial, mas sim na redução da volatilidade associada, diferentemente do que sugere a literatura associada a esta questão (como Lobo e Tufte (1998) e Leblang e Bernhard (2006)). Em 2006, para a variável de propaganda eleitoral, os resultados sugerem que a taxa de câmbio foi apreciada e também a sua volatilidade foi reduzida, quando da divulgação das pesquisas eleitorais, o que pode sugerir um indício de ciclo político eleitoral.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Neste estudo são analisados, através de técnicas de dados em painel, os fatores determinantes dos níveis de ativos líquidos de empresas abertas do Brasil, Argentina, Chile, México e Peru no período de 1995 a 2009. O índice utilizado nas modelagens é denominado de ativo líquido (ou simplesmente caixa), o qual inclui os recursos disponíveis em caixa e as aplicações financeiras de curto prazo, divididos pelo total de ativos da firma. É possível identificar uma tendência crescente de acúmulo de ativos líquidos como proporção do total de ativos ao longo dos anos em praticamente todos os países. São encontradas evidências de que empresas com maiores oportunidades de crescimento, maior tamanho (medido pelo total de ativos), maior nível de pagamento de dividendos e maior nível de lucratividade, acumulam mais caixa na maior parte dos países analisados. Da mesma forma, empresas com maiores níveis de investimento em ativo imobilizado, maior geração de caixa, maior volatilidade do fluxo de caixa, maior alavancagem e maior nível de capital de giro, apresentam menor nível de acúmulo de ativos líquidos. São identificadas semelhanças de fatores determinantes de liquidez em relação a estudos empíricos com empresas de países desenvolvidos, bem como diferenças devido a fenômenos particulares de países emergentes, como por exemplo elevadas taxas de juros internas, diferentes graus de acessibilidade ao mercado de crédito internacional e a linhas de crédito de agências de fomento, equity kicking, entre outros. Em teste para a base de dados das maiores firmas do Brasil, é identificada a presença de níveis-alvo de caixa através de modelo auto-regressivo de primeira ordem (AR1). Variáveis presentes em estudos mais recentes com empresas de países desenvolvidos como aquisições, abertura recente de capital e nível de governança corporativa também são testadas para a base de dados do Brasil.