451 resultados para Minimos quadrados
Resumo:
Este trabalho tem como objetivo mostrar que o “quebra-cabeça” é na verdade um artefato estatístico, produzido pelo fato de que a taxa de câmbio real de equilíbrio de longo prazo não é constante, mas varia ao longo do tempo. A abordagem que será usada para demonstrar este fato concilia a pesquisa acadêmica preocupada em testar a hipótese da paridade de poder de compra com a pesquisa orientada para a política econômica que procura estimar a taxa de câmbio real de equilíbrio de longo prazo.4 Uma conseqüência desta abordagem é que ela não implica que a não rejeição da hipótese de raiz unitária para a taxa de câmbio real seja equivalente à rejeição da hipótese de paridade do poder de compra, pois a taxa de câmbio real pode ser uma variável não estacionária e co-integrada com a taxa de câmbio real de longo prazo.5 O trabalho está organizado do seguinte modo: a Seção 2 apresenta uma resenha sucinta de alguns modelos largamente usados na literatura de macroeconomia aberta que especificam as variáveis que afetam a taxa de câmbio real de equilíbrio de longo prazo; a Seção 3 calcula o viés do estimador de mínimos quadrados ordinário da regressão (1) quando a taxa de câmbio real de equilíbrio de longo prazo não é constante; a Seção 4 analisa várias hipóteses quanto ao processo estocástico da taxa de câmbio real de equilíbrio de longo prazo e deduz o processo correspondente à taxa de câmbio real de curto prazo; a Seção 5 conclui o trabalho.
Resumo:
O objetivo fundamental desta dissertação foi desenvolver modelos de estimativa da radiação solar no intuito de complementar a base de dados visando o traçado de mapas de radiação solar para o Rio Grande do Sul. Inicialmente foi realizada uma pesquisa na literatura sobre as metodologias desenvolvidas para a estimativa da radiação solar para locais onde inexistem dados medidos desta variável. Foi feito um levantamento das técnicas estatísticas utilizadas na previsão de valores de variáveis. As metodologias pesquisadas foram aplicadas ao banco de dados SAMSON (Solar and Meteorological Surface Observational Network). Entre as variáveis deste banco de dados estão a radiação solar, a umidade relativa, a temperatura, a latitude, a altitude e a nebulosidade. A metodologia dos modelos de estimativa aplicada neste trabalho baseia-se no Método dos Mínimos Quadrados. Foram realizadas correlações mensais e anuais entre as variáveis acima citadas e seus resultados validados através de validação cruzada. Resultou apropriada, na disponibilidade de dados climatológicos, a aplicação de modelos com parâmetros mensais de regressão linear múltipla envolvendo as variáveis explicativas: insolação, temperatura média e umidade relativa. Este modelo, entre outros, foi aplicado aos dados do Rio Grande do Sul. A metodologia acima descrita aplicada aos dados medidos no Rio Grande do Sul, resultou eficaz. Foram pesquisadas técnicas de interpolação para traçado de mapas e estabelecidas regras para o traçado dos mesmos. Foram utilizados dados periféricos para a Argentina, Uruguai e Santa Catarina. Foram feitos mapas mensais de médias mensais de radiação solar global horizontal diária bem como um mapa da média anual de radiação solar global horizontal diária. Observou-se que o modelo de Ångström–Prescott apresenta bons resultados quando se dispõe apenas da insolação Os mapas serão úteis para a pesquisa e implementação de sistemas empregando Energia Solar no Estado do Rio Grande do Sul. Finalmente, a principal conclusão é a de que modelos de correlações obtidos com dados de cada mês e produzindo parâmetros mensais são mais adequados do que um único modelo de correlação com parâmetros de validade anual utilizado nas estimativas mensais.
Resumo:
Neste trabalho realizamos um estudo sobre a produtividade total e as produtividades individuais dos fatores de produção para o setor de geração de energia elétrica no Brasil, usando dados do período ] 978 a 1992 das cmpresas ELETRONORTE, CHESF, FURNAS e ELETROSUL. Utilizando a abordagem da estimação econométrica da função dc custo, construímos um modelo do tipo trallslog que inclui a restrição sobre a taxa de retorno do capital, onde os insumos variáveis são mão-de-obra, materiais elétricos e energia e o único insumo fixo é o capital. Os resultados da estimação de mínimos quadrados de três estágios iterativos para o modelo básico mostraram que o aumento médio na produtividade total foi de 9,9% ao ano, sendo que a contribuição média da mão-de-obra foi de 0,3% ao ano, a dos materiais elétricos foi de 2,6%) ao ano e a da energia foi de 7,0% ao ano no período de estudo. A situação muda bastante quando estimamos o mesmo modelo sem considerar o intercâmbio do insumo energia elétrica no processo de produção, tendo em vista que o aumento médio na produtividade total cai para 2,4% ao ano, com uma contribuição negativa da mão-de-obra de 1,0% ao ano c contribuições positivas dos insumos materiais elétricos e energia de, respectivamente, 1,4% e 2,0% ao ano. Como trabalhos complementares, usando este arcabouço teórico, sugerimos a verificação a nível regional da existência do monopólio natural, a determinação do tamanho ótimo da empresa de geração de energia elétrica e a existência de economias de integração vertical entre os segmentos de geração, transmissão e distribuição para o Brasil.
Resumo:
In this thesis, the basic research of Chase and Simon (1973) is questioned, and we seek new results by analyzing the errors of experts and beginners chess players in experiments to reproduce chess positions. Chess players with different levels of expertise participated in the study. The results were analyzed by a Brazilian grandmaster, and quantitative analysis was performed with the use of statistical methods data mining. The results challenge significantly, the current theories of expertise, memory and decision making in this area, because the present theory predicts piece on square encoding, in which players can recognize the strategic situation reproducing it faithfully, but commit several errors that the theory can¿t explain. The current theory can¿t fully explain the encoding used by players to register a board. The errors of intermediary players preserved fragments of the strategic situation, although they have committed a series of errors in the reconstruction of the positions. The encoding of chunks therefore includes more information than that predicted by current theories. Currently, research on perception, trial and decision is heavily concentrated on the idea of pattern recognition". Based on the results of this research, we explore a change of perspective. The idea of "pattern recognition" presupposes that the processing of relevant information is on "patterns" (or data) that exist independently of any interpretation. We propose that the theory suggests the vision of decision-making via the recognition of experience.
Resumo:
É apresentada uma nova abordagem na técnica e na avaliação de área de florestas nativas, exóticas e uso do solo do Nordeste do Estado do Rio Grande do Sul, em particular no entorno da escarpa que divide os Campos de Cima da Serra e a Planície Costeira, caracterizada por apresentar espécies de Pinus elliotti Engelm var elliottiii e Pinus taeda L., Eucalyptus sp. e Araucaria angustifólia (Bert.) O. Ktze. e áreas de campo nativo. Nas últimas décadas tem se verificado avanço das florestas exóticas, principalmente de florestas de pinus, sobre as áreas de campo e florestas nativas, surgindo como uma das maiores fontes de exploração econômica da região. Parcialmente em razão disto, as florestas de araucária distribuem-se de forma pouco homogênea, em decorrência de décadas de desmatamento. As técnicas de classificação em Sensoriamento Remoto, usando imagens de Landsat, mostraram que é possível separar tipos diferentes de vegetação, e no exemplo das florestas na região estudada, tanto nativas como exóticas. As limitações em definições espacial e espectral até meados da década de 1990 motivaram o desenvolvimento de uma nova geração de satélites e sensores, incluindo o sensor ASTER a bordo do satélite Terra. Este sensor apresenta 14 bandas espectrais com diferentes resoluções espaciais, sendo usado nesta pesquisa suas 9 bandas correspondentes ao espectro de radiância refletida. O foco central deste trabalho está na utilização de sensoriamento remoto e geoprocessamento para determinação de áreas de vegetação e uso do solo no extremo leste dos Campos de Cima da Serra, através de imagens orbitais do sensor ASTER. Utilizando métodos de classificação supervisionada foi possível caracterizar a área, separar as espécies vegetais entre si, além de quantificá-las O grupo das 9 bandas foram distribuídas em três grupos: com 3 bandas de resolução espacial de 15 metros no visível e infravermelho próximo (VNIR); com 6 bandas com resolução espacial de 30 metros no infravermelho médio (SWIR); e com 9 bandas com resolução espacial de 30 metros cobrindo toda a faixa de resolução espectral do espectro de radiância refletida do sensor ASTER (VNIR+SWIR). A metodologia incluiu processamento de imagem e classificação com o algoritmo de máxima verossimilhança gaussiana. Os resultados são: 1) é possível identificar tipos diferentes de manejo e idade nas florestas de Pinus elliottii (jovens, adulto, velho e manejado diferenciado); 2) a exatidão geral foi de 90,89% no subsistema VNIR, e o índice do Kappa foi de 0,81 em ambos subsistemas VNIR e (VNIR+SWIR); 3) a classificação apresentando o mapa do uso do solo mostra que, de forma geral, os dados de VNIR têm os melhores resultados, incluindo o detalhamento para pequenas áreas da superfície terrestre. O grupo (VNIR+SWIR) têm potencial superior para a determinação das classes araucária , eucalipto e pinus com manejo / pinus adulto , enquanto que o grupo SWIR não apresenta não vence em nenhuma classe; 4) com relação aos dados de exatidão geral resultantes do subsistema VNIR, a área estimada de pinus é 22,28% da área estudada (cena de 1543,63 quilômetros quadrados totais), e de araucária é 10,10%, revelando que aquela espécie exótica está mudando rapidamente a paisagem da região. Na comparação destes resultados com outros estudos na região pesquisada, verifica-se que a utilização de dados ASTER implica em um aumento na acurácia da classificação de vegetação em geral e que este sensor é altamente apropriado para estudos ambientais, devido a suas excelentes características espaciais e espectrais.
Resumo:
Os registros de vazões líquidas obtidos das estações fluviométricas são válidos, unicamente, para o local de onde foram coletados ou muito próximo a ele. Na maioria das vezes, a região de influência deste não inclui o local de interesse para o desenvolvimento de projetos de recursos hídricos. Este inconveniente, geralmente, pode ser resolvido através do uso de métodos de regionalização hidrológica. Para determinar os coeficientes da equação de regionalização, o procedimento mais usado consiste em: i) estabelecer uma relação do tipo exponencial multivariada entre a variável dependente (vazão média de longo prazo ou média anual de cheia) e as covariáveis (variáveis climáticas e fisiográficas da bacia hidrográfica); ii) linearizar a equação anterior mediante a transformação logarítmica de ambos os membros; iii) utilizar modelos lineares de regressão para estimar os coeficientes, geralmente, o método dos mínimos quadrados ordinários; e iv) aplicar a transformação inversa para definir a equação. A aplicação deste procedimento implica assumir certas propriedades dos dados (assimetria positiva, registros da mesma extensão e que os mesmos possuem o mesmo período de início e fim, entre outros) que dificilmente podem ser atendidas, prejudicando a verificação das hipóteses nas quais estão baseados os métodos lineares de regressão e, em conseqüência, seu adequado uso, bem como a confiabilidade dos resultados obtidos. Esta pesquisa apresenta um aprimoramento dos métodos de regionalização de vazões geralmente empregados, incluindo-se técnicas que levam em consideração as limitações anteriores. Estas técnicas foram: i) uso da transformada de Box-Cox na linearização da equação exponencial multivariada; ii) determinação dos coeficientes da equação de regionalização usando mínimos quadrados ponderados; e iii) verificação se os resíduos da regressão estão correlacionados ou não. Para o desenvolvimento e verificação da metodologia proposta foram usados somente registros fluviométricos de Bacias Hidrográficas Brasileiras, que drenam suas águas para o Rio Grande do Sul e/ou que estejam localizadas dentro dele. Geograficamente, a área de estudo inclui a totalidade do estado do Rio Grande do Sul e parte de Santa Catarina. As equações de regionalização foram definidas usando dados de vazões médias de longo prazo e média de cheia, para tempo de retorno de 2,33 e 50 anos. Neste último caso, as freqüências foram estimadas através do método dos momentos-L.Comparando os resultados obtidos utilizando o modelo de regionalização hidrológica proposto neste trabalho (transformada de Box-Cox / mínimos quadrados ponderados) junto a seus similares gerados usando a metodologia convencional (transformada logarítmica / mínimos quadrados ordinários) e de modelos intermediários (transformada logarítmica / mínimos quadrados ponderados e transformada de Box-Cox / mínimos quadrados ordinários), os mesmos podem ser considerados satisfatórios, visto que em todas as simulações realizadas o modelo proposto forneceu melhores resultados que aqueles obtidos com os outros modelos, sendo utilizado como padrão de comparação: 1) a qualidade do ajuste, 2) o grau de verificação das hipóteses dos métodos lineares de regressão e 3) os erros na estimativa das descargas, em termos de vazão específica. Nas simulações realizadas usando os modelos intermediários, observou-se que: i) na regionalização de vazões médias, o ganho de considerar a heterogeneidade temporal dos dados é maior do que corrigir a assimetria dos mesmos; ii) quando são usadas séries de descargas máximas, ocorre o efeito contrário, visto que o ganho de corrigir a assimetria das séries é maior do que o efeito da heterogeneidade temporal dos dados. Com relação aos resíduos da regressão, contrariamente ao esperado, os mesmos não sugerem estar correlacionados; isto pode ser conseqüência de utilizar como variável dependente um único registro por estação (vazão média de longo prazo ou média anual de cheia).
Resumo:
Este trabalho visa investigar o analfabetismo no Brasil a partir do uso de novas medidas de alfabetização inicialmente desenvolvidas por Basu e Foster (1998). Para tanto, primeiro se avalia o perfil de alfabetização da população brasileira de acordo com a definição de analfabetismo isolado. Entende-se por analfabetos isolados aqueles indivíduos analfabetos que não convivem com pessoas alfabetizadas em nível domiciliar. Segundo, busca-se evidências de externalidades domiciliares da alfabetização de filhos em aspectos relacionados a salários e à participação no mercado de trabalho de pais analfabetos. Devido à suspeita de causalidade reversa nas estimações por Mínimos Quadrados Ordinários (MQO) das equações que relacionam as variáveis de interesse dos pais com as alfabetizações dos filhos, utiliza-se as ofertas municipais de escolas e professores de primeiro grau como variáveis instrumentais para a alfabetização. Da investigação do perfil de alfabetização constata-se que a região Nordeste é a que apresenta os piores resultados entre as regiões do país, uma vez que é a que tem a maior parcela de analfabetos isolados do total. Tal resultado condiciona políticas públicas de alfabetização para essa região. As aplicações das medidas indicam que os rankings de alfabetização por estados são sensíveis às diferentes medidas. Os resultados encontrados das estimações por MQO indicam haver correlação positiva entre as variáveis dependentes dos pais e alfabetização dos filhos. Entretanto, a aplicação da metodologia de variáveis instrumentais não confirma os resultados das estimações por MQO. Contudo, devido à fragilidade dos resultados das estimações do primeiro estágio, não se pode afirmar que não há externalidades da alfabetização dos filhos para os pais.
Resumo:
O trabalho doméstico é a ocupação da maioria das trabalhadoras brasileiras. São cerca de 6 milhões de mulheres empregadas nesta ocupação. Este estudo tem como objetivo analisar a mobilidade ocupacional e as conseqüências em termos de rendimento destas trabalhadoras. O objetivo do trabalho é examinar até que ponto o fato de tido o primeiro emprego como empregada doméstica afeta as trabalhadoras na escolha futura de suas ocupações. Estima-se o efeito do primeiro emprego como trabalhadora doméstica sobre a probabilidade de ter a ocupação de doméstica atualmente. O método escolhido foi o de variáveis instrumentais de modo a controlar o viés de endogeneidade entre a escolha da primeira ocupação e a ocupação atual. Os instrumentos escolhidos foram: número de escolas por criança em idade escolar, número de professores por escola e PIB per capita. Supõe-se que estes instrumentos sejam proxies para os custos diretos da educação e para o custo de oportunidade das mulheres. Os resultados mostram que o fato de ter tido como primeiro emprego o trabalho doméstico aumenta a probabilidade das trabalhadoras permanecerem nesta mesma ocupação em comparação com quem não começou como doméstica. Quando o resultado é comparado com a estimação pelo Método de Mínimos Quadrados, ou seja, sem controlar por um possível viés de endogeneidade, o resultado é três vezes maior. Estes resultados sugerem uma imobilidade ocupacional onde a escolha de inserção como empregada doméstica pode levar a uma armadilha de ocupação. Para tentar identificar possíveis efeitos que a primeira ocupação de doméstica pode ter sobre os rendimentos das trabalhadoras na sua ocupação atual a estimação pelo método de mínimos quadrados mostrou que o primeiro emprego como doméstica teria como efeito diminuir em 13% os rendimentos das trabalhadoras em comparação com quem não começou como doméstica. Já a estimação pelo método de variáveis instrumentais não mostrou um efeito estatisticamente significante. Além disso, também não foram encontrados resultados estatisticamente significantes quando a amostra foi restringida apenas para trabalhadoras que não tinham a ocupação atual de doméstica. Estes resultados sugerem que apesar da imobilidade ocupacional observada, não haveria diferenças em relação do rendimento atual das trabalhadoras.
Resumo:
Existe uma variedade de ensaios tratando do tema de segmentação do mercado de trabalho, porém todos utilizando a estratégia de avaliar diversas categorias de atividade conjuntamente, algo que tem tornado aparentemente mais árdua a obtenção de um consenso acerca da existência ou ausência de segmentação no caso brasileiro. Neste estudo, avalia-se apenas uma categoria específica, que é a de empregadas domésticas, na tentativa de se reduzir esta dificuldade, ao mesmo tempo em que se estuda um grupo relevante da força brasileira de trabalho, cujas representantes somam 1/6 dos postos de trabalho femininos ou 7% do total de pessoas empregadas no país. Desta forma, caso se consiga encontrar evidências robustas de que esta parcela significativa do mercado de trabalho seja segmentada, não se poderá supor que a sua totalidade tenha a característica de um mercado integrado. E esta é conclusão a que se chega por meio da aplicação de dois métodos (mínimos quadrados ordinários e a decomposição de Blinder-Oaxaca), reforçando a impressão geral de que existe diferencial de ganho entre os setores formal e informal, ainda que se faça o controle das características produtivas de cada grupo.
Resumo:
Estudos anteriores mostraram que a técnica de redes neurais tem sido mais bem sucedida que os modelos tradicionais em vários assuntos relacionados ao mercado de debêntures, tais como modelar a probabilidade de default e em explicar os ratings de agências classificadoras de risco, como Standard & Poors e Moodys. O objetivo deste trabalho é testar a técnica de redes neurais para precificar debêntures no Brasil e comparar os resultados obtidos com regressões lineares. Para isso, utilizaram-se como variáveis explicativas dados contábeis, características específicas das emissões, tais como prazo para vencimento e cláusulas de recompra antecipada. Em relação às variáveis dependentes, optou-se por utilizar as taxas divulgadas diariamente pela ANDIMA como valor de mercado para as debêntures. As variáveis acima foram testadas em diversos modelos pelo método dos mínimos quadrados ordinários e o modelo que apresentou o melhor resultado foi testado em redes neurais com duas camadas intermediárias. Os resultados obtidos com redes neurais com seis e oito neurônios apresentaram resultados superiores aos modelos estimados por mínimos quadrados ordinários tanto na fase de treinamento como na fase de testes. No entanto, ainda há bastante espaço para melhorias nos modelos dado que o tamanho da base de dados disponível para este tipo de testes no Brasil ainda não é a ideal e as taxas divulgadas pela ANDIMA são médias de um grupo pequeno de instituições e não necessariamente refletem o valor de mercado de uma debênture.
Resumo:
O objetivo desse trabalho é apresentar revisão da literatura empírica sobre a racionalidade das expectativas e eficiência do mercado de câmbio e aplicar essa revisão sobre o mercado de câmbio brasileiro entre 2002 e 2007 em três horizontes distintos de tempo, utilizando-se (i) de dados da pesquisa Focus do Banco Central do Brasil para podermos identificar se o viés de predição do forward é devido ao prêmio de risco cambial ou a formação das expectativas e (ii) dos métodos dos mínimos quadrados ordinários e do vetor auto-regressivo. No curto prazo o mercado é eficiente e irracional, enquanto que, no longo prazo, o forward não está relacionado com o câmbio à vista. Além disso, constatamos que a heterogeneidade dos agentes nesse mercado influencia a variação cambial no curto prazo, e as expectativas possuem uma persistência após um choque estrutural.
Resumo:
O objetivo deste trabalho é caracterizar a Curva de Juros Mensal para o Brasil através de três fatores, comparando dois tipos de métodos de estimação: Através da Representação em Espaço de Estado é possível estimá-lo por dois Métodos: Filtro de Kalman e Mínimos Quadrados em Dois Passos. Os fatores têm sua dinâmica representada por um Modelo Autorregressivo Vetorial, VAR(1), e para o segundo método de estimação, atribui-se uma estrutura para a Variância Condicional. Para a comparação dos métodos empregados, propõe-se uma forma alternativa de compará-los: através de Processos de Markov que possam modelar conjuntamente o Fator de Inclinação da Curva de Juros, obtido pelos métodos empregados neste trabalho, e uma váriavel proxy para Desempenho Econômico, fornecendo alguma medida de previsão para os Ciclos Econômicos.
Resumo:
Uma das características mais ressaltantes nos últimos anos é a variedade de publicidade com as quais as empresas produtoras de bebidas alcoólicas tratam de influenciar os consumidores para comercializar seus produtos. Neste contexto surgem duas posições em relação aos efeitos da publicidade de bebidas alcoólicas no consumo desmedido e suas conseqüências na sociedade: por um lado, as empresas produtoras investem em publicidade só como um recurso para induzir o consumidor à compra do produto que oferecem em comparação aos oferecidos por seus concorrentes, e não necessariamente para promover condutas irresponsáveis no consumo de seus produtos, como dirigir alcoolizado depois de consumir bebidas alcoólicas. Por outro lado, na literatura da saúde pública opina-se o contrário: os acidentes de trânsito são vistos como uma das conseqüências do consumo desmedido e irresponsável destas bebidas, muitas vezes devido a uma publicidade de bebidas alcoólicas. Assim, a pergunta central da pesquisa é: qual é a influência da publicidade de cerveja nos acidentes de trânsito provocados por motoristas ou pedestres em estado de embriagues na cidade de Lima? Para responder a pergunta se usará um modelo log-linear estimado pelo método de Mínimos Quadrados Ordinário (MQO), tendo como variável dependente o número de acidentes de trânsito acontecidos entre o período 1999-2003. O modelo também leva em conta variáveis independentes como o montante investido em publicidade televisada de cervejas, assim como a legislação feita para modificar o comportamento das pessoas em relação ao fato de dirigir em estado de embriaguez. O resultado do modelo rodado confirma a existência de uma relação positiva entre os acidentes de trânsito e a publicidade televisada de cervejas, assim como uma relação negativa entre a legislação e os acidentes de trânsito acontecidos na cidade de Lima no período 1999 até o 2003.
Resumo:
Este trabalho tem por objetivo identificar fatores que influenciam o spread de cotas seniores de Fundos de Investimento em Direitos Creditórios (FIDC). Trata-se de um estudo pioneiro no segmento de renda fixa, uma vez que os anteriores focaram o spread para debêntures. Entender componentes do spread em FIDCs é muito importante para as empresas que captam recursos no mercado de capitais por meio deste novo instrumento. A análise contemplou 113 ofertas públicas indexadas ao CDI entre 2002 e 2009 que tinham prazo determinado e pelo menos 02 investidores adquirentes das cotas. Foram elaboradas quatro regressões múltiplas pelo método dos Mínimos Quadrados Ordinários (MQO). A primeira visava identificar quais variáveis afetavam o rating. A segunda tinha como variável dependente o spread e as independentes eram todas, excluindo as que afetavam o rating. A terceira equação testou uma possível relação de não-linearidade entre spread e rating, enquanto a quarta testou o spread contra todas as demais variáveis, incluindo as que afetavam o rating. Os resultados apontaram que o rating é sim um bom determinante para o spread, assim como o volume da emissão, ambiente econômico e instituição financeira que faz a custódia do fundo. Da mesma forma, são fatores que explicam o rating: ambiente econômico, quem são o administrador e o custodiante do fundo, o número de investidores, volume, se o fundo é multi ou mono-cedente e se os ativos são performados ou não. Não há linearidade entre spread e rating em FIDCs. A maior contribuição deste estudo foi apresentar pela primeira vez variáveis que afetam um novo tipo de investimento em renda fixa, os FIDCs, tais como tipo de ativo, níveis de concentração e fundos mono e multi-cedentes. Tudo isto por meio de um cuidadoso tratamento da base de dados.