862 resultados para Mínimos quadrados ordinários com a correcção de White e Variável dummy
Resumo:
Pesquisas sobre a variabilidade espacial dos atributos do solo que influenciam a produtividade são de uma grande importância para o desenvolvimento de novas técnicas que beneficiam a agricultura. A variabilidade desses atributos pode ser avaliada por técnicas de geoestatística e auxiliar no mapeamento e manejo do solo. Este trabalho teve por objetivo avaliar a qualidade do ajuste dos modelos teóricos espaciais segundo o Critério de Informação de Akaike, de Filliben, de Validação Cruzada e o valor máximo do logaritmo da função verossimilhança, de dados da umidade do solo, da densidade do solo e da resistência do solo à penetração, nas camadas de 0 a 0,1, 0,1 a 0,2 e 0,2 a 0,3 m, e de produtividade da soja do ano agrícola 2004-2005. Os parâmetros dos modelos de variabilidade espacial foram estimados por meio dos métodos de mínimos quadrados ordinários, mínimos quadrados ponderados e máxima verossimilhança. A pesquisa foi desenvolvida em uma área de 57 ha de um Latossolo Vermelho distroférrico, utilizando-se uma malha de 75 x 75 m georreferenciada. Concluiu-se que, dos métodos de avaliação de ajustes estudados, o da Validação Cruzada foi o mais adequado para escolha do melhor ajuste do modelo de variabilidade espacial; conseqüentemente têm-se mapas temáticos mais acurados.
Resumo:
A distribuição espacial da condutividade hidráulica saturada (k0) é essencial para estudos relacionados a erosão do solo e escoamento superficial. Este trabalho objetivou estudar a continuidade espacial do atributo hidrológico do solo k o na Bacia Hidrográfica do Alto Rio Grande, MG, e realizar seu mapeamento por meio de técnicas geoestatísticas, utilizando dados sem e com transformação logarítmica. Os modelos de semivariograma esférico e exponencial foram ajustados ao semivariograma experimental pelo método dos Mínimos Quadrados Ordinários (MQO) e Mínimos Quadrados Ponderados (MQP). Técnicas de validação cruzada e preditiva foram aplicadas para a escolha do melhor modelo. Os resultados indicaram que, ao se trabalhar com o logaritmo dos dados de k o, houve redução de pontos discrepantes e de anisotropia, entretanto os valores mais elevados de grau de dependência espacial foram observados nos dados sem transformação. O ajuste do modelo esférico, por meio do método MQO, foi o que produziu melhor desempenho na modelagem da continuidade espacial de k0. Os mapas gerados a partir dos dados sem e com transformação logarítmica não apresentaram o mesmo comportamento na distribuição espacial dos valores, e o mapa dos dados na forma transformada teve o melhor detalhamento da distribuição espacial.
Resumo:
O objetivo deste trabalho foi selecionar o modelo de curvas de crescimento mais adequado e avaliar a influência de efeitos de ambiente e de grupo genético sobre os parâmetros estimados do modelo. Cinco modelos não lineares, Brody, Gompertz, Logístico, Von Bertalanffy e Richards, foram ajustados a dados de peso-idade coletados de 316 vacas, de quatro grupos genéticos: G (Nelore, ½Canchim + ½Nelore, ½Angus + ½Nelore e ½Simental + ½Nelore), do nascimento até 100 meses de idade; em duas estações do ano: E (primavera e outono). As vacas foram submetidas a dois níveis de concentrado (S) durante quatro meses, pós-desmama. O ajuste dos modelos foi realizado por mínimos quadrados ordinários, usando os pesos ponderado e não ponderado pelo inverso da variância. Os modelos Brody e Von Bertalanffy convergiram para todos os grupos genéticos; porém, o Brody foi o mais adequado. As estimativas do peso assintótico (A) e da taxa de maturação (k) do modelo Brody ponderado pelo inverso da variância foram analisadas por modelo misto, que incluiu efeito médio global e efeitos principais de G, E e S, e suas interações. O parâmetro A foi influenciado pelo efeito de G e E, enquanto k foi influenciado por S, o que indica que melhorias no manejo alimentar resultam em menor variação na forma das curvas de crescimento e em altas taxas de maturação.
Resumo:
Objetivou-se caracterizar a variabilidade espacial da incidência de Colletotrichum truncatum (Schwein) em sementes colhidas de soja e determinar o melhor modelo e método de semivariograma que represente a incidência de C. truncatum dessas sementes. O experimento foi realizado em condições de campo na safra 2009/10, em 3 parcelas de 9,9 x 10 m, com sementes inoculadas com C.truncatum. O inóculo correspondeu a 0,8; 1,6 e 2,4% do total semeado. Foram demarcadas 3 malhas com receptores GNSS, totalizando 112 pontos em cada parcela distanciados a 1,3 m na linha. No final do ciclo da soja, realizaram-se a colheita, a secagem e a análise sanitária das sementes pelo método 'blotter test', referente aos 336 pontos demarcados. Quatro modelos de semivariogramas foram ajustados aos dados coletados utilizando os métodos mínimos quadrados ordinários (OLS), mínimos quadrados ponderados (WLS), máxima verossimilhança (ML) e máxima verossimilhança restrita (REML). A validação cruzada foi empregada para escolha final do modelo e método do semivariograma. Em seguida, efetuaram-se a krigagem e o desvio padrão da krigagem. Os mapas de krigagem ilustraram a transmissão da semente para a semente e a sua variância. Verificou-se estrutura de dependência espacial da transmissão de C. truncatum via semente. O melhor modelo de semivariograma foi o esférico e o melhor ajuste foi o REML. Houve alcance de 0,95, 4,03 e 7,05 m para as parcelas com 0,8, 1,6 e 2,4% de sementes inoculadas respectivamente. Quanto maior o inóculo primário da parcela, maior foi a transmissão para as sementes próximas à fonte de inóculo.
Resumo:
Esta pesquisa originou-se de uma base de dados de dois inventários a 100%, realizados em 1984 e 2000 sobre uma mesma área de 576 ha de floresta tropical primária, localizada na Floresta Nacional do Tapajós, Belterra, Pará. O objetivo da pesquisa foi utilizar a análise exploratória de dados e a regressão robusta para modelar o crescimento em diâmetro e área basal. Nos dois inventários as circunferências à altura do peito (CAP) foram medidas com fitamétrica, enquanto as alturas comerciais em 1984 foram medidas com o hipsômetro de Weiss e em 2000, estimadas com o uso de varas; o DAP mínimo em 1984 foi de 55 cm para todas as espécies e em 2000 foi adotado o DAP mínimo de 35 cm. As análises estatísticas foram precedidas de análise exploratória de dados (AED), em que foram utilizados o box plot (caixa-de-bigodes) na detecção de outliers (observações discrepantes) e o gráfico stem-and-leaf (tronco-e-folhas) para filtrar as observações extremas. Utilizou-se a regressão robusta para ajustar os modelos na presença de outliers. A pesquisa mostrou que, apesar das variações intra e interespecíficas, as seis espécies, em conjunto, apresentaram taxas de crescimento medianas observadas e esperadas em diâmetro e área basal de 4,56 e 4,28 mm/ano e 13,00 e 13,09 cm²/ha/ano, respectivamente. A pesquisa também mostrou que o uso da análise exploratória de dados e da regressão robusta viabilizou a análise e a determinação dos incrementos periódicos em diâmetro e área basal em bases consistentes. A metodologia empregada no caso específico dos dados disponíveis e tipos de variáveis mostrou ser mais eficiente com o uso de regressão robusta pelo método Least Trimmed Square do que pelo método dos mínimos quadrados ordinários.
Resumo:
O segmento de celulose e papel tem-se destacado como o mais importante do setor florestal no Brasil, e o conhecimento das relações de produção e das características da tecnologia pode gerar informações úteis para o setor. Este trabalho teve como objetivos especificar e ajustar a função de produção da indústria de celulose no Brasil, no ano de 2004, utilizando-se como referência os fundamentos da teoria da produção. Foi empregado um modelo Cobb-Douglas, em que as variáveis explicativas foram terra, trabalho e capital. As estimativas confirmaram que essas variáveis afetam, significativamente, a produção de celulose. Os resultados, usando o método dos Mínimos Quadrados Ordinários (MQO), apontaram que os fatores de produção analisados estão sendo empregados racionalmente na indústria de celulose no Brasil. Essa indústria apresenta retorno constantes à escala, terra e trabalho constituem nos fatores mais importantes na formação da quantidade produzida de celulose e as empresas mostram-se intensivas em capital.
Resumo:
Foram avaliadas três formas de parcelas experimentais (retangular, uma linha - linear e parcela de uma árvore - STP) em testes clonais de Eucalyptus spp, utilizando-se três experimentos, cada um com 18 clones. Foram usados três modelos de análise (mínimos quadrados ordinários - ANOVA tradicional, modelos mistos com fator clone fixo ou com fator clone aleatório - REML/BLUP). Os dois primeiros modelos apresentaram resultados similares. Com REML/BLUP houve estreitamento das predições em relação às amplitudes obtidas com as médias, e essa redução foi proporcionalmente maior com parcelas retangulares e STP. O ordenamento dos clones também foi similar com esses dois tipos de parcelas. É provável que com parcelas STP haja um balanço compensatório das alocompetições, pois se pode trabalhar com maior número de repetições e menor custo. Portanto, com parcelas STP haverá economia de recursos e sem prejuízos para o Programa de Melhoramento Florestal.
Resumo:
O objetivo deste trabalho foi utilizar técnicas de georreferenciamento e de geoestatística para analisar a variabilidade espacial da força de desprendimento de frutos de cafeeiros por meio de semivariogramas e pela interpolação por krigagem. O trabalho foi conduzido no município de Três Pontas - MG, Brasil. A força de desprendimento dos frutos verdes e de cerejas dos cafeeiros foi obtida por meio de um protótipo de dinamômetro em pontos georreferenciados. A dependência espacial dos dados foi analisada por meio de ajustes de semivariogramas, clássico e robusto, para o método dos mínimos quadrados ordinários e ponderados, e apenas o ajuste clássico, para os métodos da máxima verossimilhança e máxima verossimilhança restrita. Testaram-se, para cada um dos métodos, os modelos esférico, exponencial e gaussiano. Os mapas de isolinhas obtidos por krigagem foram produzidos, baseados no melhor método e modelo de ajuste da função semivariograma, que foram obtidos pelas estatísticas de validação. As variáveis em estudo apresentaram estruturas de dependência espacial, as quais foram modeladas pelos semivariogramas, o que possibilitou a confecção dos mapas de isolinhas de distribuição espacial, obtidos por krigagem. Foi possível identificar os locais mais propícios para se iniciar a colheita seletiva e mecanizada dos frutos do cafeeiro.
Resumo:
O objetivo deste trabalho é avaliar a competitividade do grão de café brasileiro no mercado americano. Diante das características particulares do mercado de grão de café verde, da variedade de possíveis interações estratégicas entre os competidores e da escassez de observações de qualidade, procura-se demonstrar neste estudo que a abordagem da demanda residual é a técnica mais adequada para atingir este fim. Estimamos a elasticidade da curva de demanda residual dos principais exportadores de café para os EUA através dos métodos de mínimos quadrados ordinários, mínimos quadrados dois estágios, mínimos quadrados três estágios e SUR. Observa-se, a partir dos resultados obtidos, poucos indícios de que o grão de café verde brasileiro, tanto do tipo arabica quanto dos demais, tenha um grau de competitividade significativo no mercado americano.
Resumo:
Os registros de vazões líquidas obtidos das estações fluviométricas são válidos, unicamente, para o local de onde foram coletados ou muito próximo a ele. Na maioria das vezes, a região de influência deste não inclui o local de interesse para o desenvolvimento de projetos de recursos hídricos. Este inconveniente, geralmente, pode ser resolvido através do uso de métodos de regionalização hidrológica. Para determinar os coeficientes da equação de regionalização, o procedimento mais usado consiste em: i) estabelecer uma relação do tipo exponencial multivariada entre a variável dependente (vazão média de longo prazo ou média anual de cheia) e as covariáveis (variáveis climáticas e fisiográficas da bacia hidrográfica); ii) linearizar a equação anterior mediante a transformação logarítmica de ambos os membros; iii) utilizar modelos lineares de regressão para estimar os coeficientes, geralmente, o método dos mínimos quadrados ordinários; e iv) aplicar a transformação inversa para definir a equação. A aplicação deste procedimento implica assumir certas propriedades dos dados (assimetria positiva, registros da mesma extensão e que os mesmos possuem o mesmo período de início e fim, entre outros) que dificilmente podem ser atendidas, prejudicando a verificação das hipóteses nas quais estão baseados os métodos lineares de regressão e, em conseqüência, seu adequado uso, bem como a confiabilidade dos resultados obtidos. Esta pesquisa apresenta um aprimoramento dos métodos de regionalização de vazões geralmente empregados, incluindo-se técnicas que levam em consideração as limitações anteriores. Estas técnicas foram: i) uso da transformada de Box-Cox na linearização da equação exponencial multivariada; ii) determinação dos coeficientes da equação de regionalização usando mínimos quadrados ponderados; e iii) verificação se os resíduos da regressão estão correlacionados ou não. Para o desenvolvimento e verificação da metodologia proposta foram usados somente registros fluviométricos de Bacias Hidrográficas Brasileiras, que drenam suas águas para o Rio Grande do Sul e/ou que estejam localizadas dentro dele. Geograficamente, a área de estudo inclui a totalidade do estado do Rio Grande do Sul e parte de Santa Catarina. As equações de regionalização foram definidas usando dados de vazões médias de longo prazo e média de cheia, para tempo de retorno de 2,33 e 50 anos. Neste último caso, as freqüências foram estimadas através do método dos momentos-L.Comparando os resultados obtidos utilizando o modelo de regionalização hidrológica proposto neste trabalho (transformada de Box-Cox / mínimos quadrados ponderados) junto a seus similares gerados usando a metodologia convencional (transformada logarítmica / mínimos quadrados ordinários) e de modelos intermediários (transformada logarítmica / mínimos quadrados ponderados e transformada de Box-Cox / mínimos quadrados ordinários), os mesmos podem ser considerados satisfatórios, visto que em todas as simulações realizadas o modelo proposto forneceu melhores resultados que aqueles obtidos com os outros modelos, sendo utilizado como padrão de comparação: 1) a qualidade do ajuste, 2) o grau de verificação das hipóteses dos métodos lineares de regressão e 3) os erros na estimativa das descargas, em termos de vazão específica. Nas simulações realizadas usando os modelos intermediários, observou-se que: i) na regionalização de vazões médias, o ganho de considerar a heterogeneidade temporal dos dados é maior do que corrigir a assimetria dos mesmos; ii) quando são usadas séries de descargas máximas, ocorre o efeito contrário, visto que o ganho de corrigir a assimetria das séries é maior do que o efeito da heterogeneidade temporal dos dados. Com relação aos resíduos da regressão, contrariamente ao esperado, os mesmos não sugerem estar correlacionados; isto pode ser conseqüência de utilizar como variável dependente um único registro por estação (vazão média de longo prazo ou média anual de cheia).
Resumo:
Este trabalho visa investigar o analfabetismo no Brasil a partir do uso de novas medidas de alfabetização inicialmente desenvolvidas por Basu e Foster (1998). Para tanto, primeiro se avalia o perfil de alfabetização da população brasileira de acordo com a definição de analfabetismo isolado. Entende-se por analfabetos isolados aqueles indivíduos analfabetos que não convivem com pessoas alfabetizadas em nível domiciliar. Segundo, busca-se evidências de externalidades domiciliares da alfabetização de filhos em aspectos relacionados a salários e à participação no mercado de trabalho de pais analfabetos. Devido à suspeita de causalidade reversa nas estimações por Mínimos Quadrados Ordinários (MQO) das equações que relacionam as variáveis de interesse dos pais com as alfabetizações dos filhos, utiliza-se as ofertas municipais de escolas e professores de primeiro grau como variáveis instrumentais para a alfabetização. Da investigação do perfil de alfabetização constata-se que a região Nordeste é a que apresenta os piores resultados entre as regiões do país, uma vez que é a que tem a maior parcela de analfabetos isolados do total. Tal resultado condiciona políticas públicas de alfabetização para essa região. As aplicações das medidas indicam que os rankings de alfabetização por estados são sensíveis às diferentes medidas. Os resultados encontrados das estimações por MQO indicam haver correlação positiva entre as variáveis dependentes dos pais e alfabetização dos filhos. Entretanto, a aplicação da metodologia de variáveis instrumentais não confirma os resultados das estimações por MQO. Contudo, devido à fragilidade dos resultados das estimações do primeiro estágio, não se pode afirmar que não há externalidades da alfabetização dos filhos para os pais.
Resumo:
Existe uma variedade de ensaios tratando do tema de segmentação do mercado de trabalho, porém todos utilizando a estratégia de avaliar diversas categorias de atividade conjuntamente, algo que tem tornado aparentemente mais árdua a obtenção de um consenso acerca da existência ou ausência de segmentação no caso brasileiro. Neste estudo, avalia-se apenas uma categoria específica, que é a de empregadas domésticas, na tentativa de se reduzir esta dificuldade, ao mesmo tempo em que se estuda um grupo relevante da força brasileira de trabalho, cujas representantes somam 1/6 dos postos de trabalho femininos ou 7% do total de pessoas empregadas no país. Desta forma, caso se consiga encontrar evidências robustas de que esta parcela significativa do mercado de trabalho seja segmentada, não se poderá supor que a sua totalidade tenha a característica de um mercado integrado. E esta é conclusão a que se chega por meio da aplicação de dois métodos (mínimos quadrados ordinários e a decomposição de Blinder-Oaxaca), reforçando a impressão geral de que existe diferencial de ganho entre os setores formal e informal, ainda que se faça o controle das características produtivas de cada grupo.
Resumo:
Estudos anteriores mostraram que a técnica de redes neurais tem sido mais bem sucedida que os modelos tradicionais em vários assuntos relacionados ao mercado de debêntures, tais como modelar a probabilidade de default e em explicar os ratings de agências classificadoras de risco, como Standard & Poors e Moodys. O objetivo deste trabalho é testar a técnica de redes neurais para precificar debêntures no Brasil e comparar os resultados obtidos com regressões lineares. Para isso, utilizaram-se como variáveis explicativas dados contábeis, características específicas das emissões, tais como prazo para vencimento e cláusulas de recompra antecipada. Em relação às variáveis dependentes, optou-se por utilizar as taxas divulgadas diariamente pela ANDIMA como valor de mercado para as debêntures. As variáveis acima foram testadas em diversos modelos pelo método dos mínimos quadrados ordinários e o modelo que apresentou o melhor resultado foi testado em redes neurais com duas camadas intermediárias. Os resultados obtidos com redes neurais com seis e oito neurônios apresentaram resultados superiores aos modelos estimados por mínimos quadrados ordinários tanto na fase de treinamento como na fase de testes. No entanto, ainda há bastante espaço para melhorias nos modelos dado que o tamanho da base de dados disponível para este tipo de testes no Brasil ainda não é a ideal e as taxas divulgadas pela ANDIMA são médias de um grupo pequeno de instituições e não necessariamente refletem o valor de mercado de uma debênture.
Resumo:
O objetivo desse trabalho é apresentar revisão da literatura empírica sobre a racionalidade das expectativas e eficiência do mercado de câmbio e aplicar essa revisão sobre o mercado de câmbio brasileiro entre 2002 e 2007 em três horizontes distintos de tempo, utilizando-se (i) de dados da pesquisa Focus do Banco Central do Brasil para podermos identificar se o viés de predição do forward é devido ao prêmio de risco cambial ou a formação das expectativas e (ii) dos métodos dos mínimos quadrados ordinários e do vetor auto-regressivo. No curto prazo o mercado é eficiente e irracional, enquanto que, no longo prazo, o forward não está relacionado com o câmbio à vista. Além disso, constatamos que a heterogeneidade dos agentes nesse mercado influencia a variação cambial no curto prazo, e as expectativas possuem uma persistência após um choque estrutural.
Resumo:
Este trabalho tem por objetivo identificar fatores que influenciam o spread de cotas seniores de Fundos de Investimento em Direitos Creditórios (FIDC). Trata-se de um estudo pioneiro no segmento de renda fixa, uma vez que os anteriores focaram o spread para debêntures. Entender componentes do spread em FIDCs é muito importante para as empresas que captam recursos no mercado de capitais por meio deste novo instrumento. A análise contemplou 113 ofertas públicas indexadas ao CDI entre 2002 e 2009 que tinham prazo determinado e pelo menos 02 investidores adquirentes das cotas. Foram elaboradas quatro regressões múltiplas pelo método dos Mínimos Quadrados Ordinários (MQO). A primeira visava identificar quais variáveis afetavam o rating. A segunda tinha como variável dependente o spread e as independentes eram todas, excluindo as que afetavam o rating. A terceira equação testou uma possível relação de não-linearidade entre spread e rating, enquanto a quarta testou o spread contra todas as demais variáveis, incluindo as que afetavam o rating. Os resultados apontaram que o rating é sim um bom determinante para o spread, assim como o volume da emissão, ambiente econômico e instituição financeira que faz a custódia do fundo. Da mesma forma, são fatores que explicam o rating: ambiente econômico, quem são o administrador e o custodiante do fundo, o número de investidores, volume, se o fundo é multi ou mono-cedente e se os ativos são performados ou não. Não há linearidade entre spread e rating em FIDCs. A maior contribuição deste estudo foi apresentar pela primeira vez variáveis que afetam um novo tipo de investimento em renda fixa, os FIDCs, tais como tipo de ativo, níveis de concentração e fundos mono e multi-cedentes. Tudo isto por meio de um cuidadoso tratamento da base de dados.