998 resultados para dados mínimos
Resumo:
Resumo: O objetivo deste trabalho foi avaliar o desempenho de 12 modelos simplificados de estimativa da evapotranspiração de referência (ETo), para o Estado do Mato Grosso. Os dados foram obtidos da rede de estações meteorológicas automáticas (EMAs) do Instituto Nacional de Meteorologia, localizadas em 28 municípios do Estado. Os modelos simplificados de estimativa avaliados foram os de: Hargreaves-Samani, Camargo, Makkink, Linacre, McGinness-Bordne, Romanenko, Turc, Holdridge, Radiação Solar, Jensen-Haise, Hansen e Caprio. Adotou-se o método de Penman-Monteith Fao 56 (PMF) como referência na avaliação das estimativas simplificadas. O desempenho estatístico foi avaliado por meio do erro absoluto médio (MBE), da raiz quadrada do erro quadrático médio (RMSE), do índice de concordância (d) de Willmott e de acordo com o ordenamento numérico dos modelos para cada índice. O modelo de Makkink superestimou a ETo de 2,0 a 3,0 mm por dia, com espalhamentos de 2,75 mm por dia e índice d de 0,40, o que resultou nos piores desempenhos entre os modelos, independentemente do município avaliado. Os modelos de Turc e McGinness-Bordne apresentaram os melhores desempenhos de estimativa da ETo, para 57,1 e 25% das EMAs, respectivamente. Os modelos de Romanenko, Makkink e Holdridge não são recomendados para o Estado do Mato Grosso.
Resumo:
No campo da perfilagem de poço existe um grande interesse voltado para as técnicas que melhorem a resolução vertical das respostas das ferramentas. Neste trabalho, optamos por desenvolver uma técnica de aumento de resolução vertical dos perfis obtidos com a ferramenta de indução denominada na bibliografia de 6FF40, através de um algoritmo que utiliza as técnicas de estimativa dos mínimos quadrados. Este método torna possível o processamento dos dados registrados de uma maneira computacionalmente eficiente. O algoritmo apresentado necessita apenas dos dados registrados, dos valores adotados como coeficientes da ferramenta, e de uma estimativa dos ruídos existentes. Como ilustração foram utilizados trechos de um perfil de uma área que reconhecidamente apresenta problemas relacionados à resolução vertical da ferramenta 6FF40. Com o objetivo de verificar a eficiência do algoritmo utilizado, os perfis processados foram correlacionados com os perfis de raio gama e com os perfis esféricos focalizados do poço 7-LOR-18-RN, perfis estes que possuem resolução vertical maior do que os perfis convencionais de indução, comprovando a individualização das camadas delgadas que antes do processamento não eram facilmente reconhecidas no perfil original. O algoritmo foi também testado com dados sintéticos demonstrando sua eficiência na recuperação de valores mais representativos para Rt.
Resumo:
Knowing the annual climatic conditions is of great importance for appropriate planning in agriculture. However, the systems of climatic classification are not widely used in agricultural studies because of the wide range of scales in which they are used. A series with data from 20 years of observations from 45 climatological stations in all over the state of Pernambuco was used. The probability density function of the incomplete gamma distribution was used to evaluate the occurrence of dry, regular and rainy years. The monthly climatic water balance was estimated using the Thornthwaite and Mather method (1955), and based on those findings, the climatic classifications were performed using the Thornthwaite (1948) and Thornthwaite and Mather (1955) for each site. The method of Kriging interpolation was used for the spatialization of the results. The study classifications were very sensitive to the local reliefs, to the amount of rainfall, and to the temperatures of the regions resulting in a wide number of climatic types. The climatic classification system of Thornthwaite and Mather (1955) allowed efficient classification of climates and a clearer summary of the information provided. In so doing, it demonstrated its capability to determine agro climatic zones.
Resumo:
O objetivo deste trabalho foi avaliar a conveniência de definir o número de componentes multiplicativos dos modelos de efeitos principais aditivos com interação multiplicativa (AMMI) em experimentos de interações genótipo x ambiente de algodão com dados imputados ou desbalanceados. Um estudo de simulação foi realizado com base em uma matriz de dados reais de produtividade de algodão em caroço, obtidos em ensaios de interação genótipo x ambiente, conduzidos com 15 cultivares em 27 locais no Brasil. A simulação foi feita com retiradas aleatórias de 10, 20 e 30% dos dados. O número ótimo de componentes multiplicativos para o modelo AMMI foi determinado usando o teste de Cornelius e o teste de razão de verossimilhança sobre as matrizes completadas por imputação. Para testar as hipóteses, quando a análise é feita a partir de médias e não são disponibilizadas as repetições, foi proposta uma correção com base nas observações ausentes no teste de Cornelius. Para a imputação de dados, foram considerados métodos usando submodelos robustos, mínimos quadrados alternados e imputação múltipla. Na análise de experimentos desbalanceados, é recomendável escolher o número de componentes multiplicativos do modelo AMMI somente a partir da informação observada e fazer a estimação clássica dos parâmetros com base nas matrizes completadas por imputação.
Resumo:
Esta pesquisa originou-se de uma base de dados de dois inventários a 100%, realizados em 1984 e 2000 sobre uma mesma área de 576 ha de floresta tropical primária, localizada na Floresta Nacional do Tapajós, Belterra, Pará. O objetivo da pesquisa foi utilizar a análise exploratória de dados e a regressão robusta para modelar o crescimento em diâmetro e área basal. Nos dois inventários as circunferências à altura do peito (CAP) foram medidas com fitamétrica, enquanto as alturas comerciais em 1984 foram medidas com o hipsômetro de Weiss e em 2000, estimadas com o uso de varas; o DAP mínimo em 1984 foi de 55 cm para todas as espécies e em 2000 foi adotado o DAP mínimo de 35 cm. As análises estatísticas foram precedidas de análise exploratória de dados (AED), em que foram utilizados o box plot (caixa-de-bigodes) na detecção de outliers (observações discrepantes) e o gráfico stem-and-leaf (tronco-e-folhas) para filtrar as observações extremas. Utilizou-se a regressão robusta para ajustar os modelos na presença de outliers. A pesquisa mostrou que, apesar das variações intra e interespecíficas, as seis espécies, em conjunto, apresentaram taxas de crescimento medianas observadas e esperadas em diâmetro e área basal de 4,56 e 4,28 mm/ano e 13,00 e 13,09 cm²/ha/ano, respectivamente. A pesquisa também mostrou que o uso da análise exploratória de dados e da regressão robusta viabilizou a análise e a determinação dos incrementos periódicos em diâmetro e área basal em bases consistentes. A metodologia empregada no caso específico dos dados disponíveis e tipos de variáveis mostrou ser mais eficiente com o uso de regressão robusta pelo método Least Trimmed Square do que pelo método dos mínimos quadrados ordinários.
Resumo:
Desde a antigüidade a medição do escoamento dos fluidos tem sido uma marca de nossa civilização, ajudando a predizer a fertilidade das terras e o consumo d’água em fontes e aquedutos. Nos nossos dias, a área de medição de fluxo está bem estabelecida e ainda desperta grande interesse nas linhas de pesquisa da mecânica dos fluidos experimental e computacional. Em particular, o estudo da medição de fluxo com elementos intrusivos, tais como placas de orifício, é de grande interesse dado o preço baixo do medidor, e sua boa precisão quando comparada à sua simplicidade de instalação e manutenção. Esta dissertação tem como objetivo o estudo da aplicação de elementos finitos aos escoamentos de fluidos viscosos - via aproximação clássica de Galerkin e Galerkin/mínimos-quadrados (GLS) – com particular ênfase na aproximação das equações de Navier-Stokes incompressível no escoamento newtoniano através de um canal obstruído por uma placa de orifício. Inicialmente, são apresentadas as dificuldades do método de Galerkin clássico na aproximação de escoamentos incompressíveis; ou seja, através da simulação de escoamentos viscosos bem conhecidos - como o escoamento no interior de uma cavidade e através de uma expansão súbita - fica evidenciada a restrição imposta pela condição de Babuška-Brezzi quando da escolha dos subespaços aproximantes do campo de velocidade e pressão Como alternativa às patologias do método de Galerkin clássico, esta dissertação emprega a metodologia de Galerkin/mínimos-quadrados na simulação acima mencionada da placa de orifício, a qual permite o uso de elementos de igual-ordem para aproximar velocidade e pressão e capturar de maneira estável escoamentos sujeitos a altos números de Reynolds. Os testes computacionais realizados se apresentaram fisicamente realistas quando comparados com a literatura e dados experimentais, sendo todos desenvolvidos no Laboratório de Mecânica dos Fluidos Aplicada e Computacional (LAMAC) do Departamento de Engenharia Mecânica da Universidade Federal do Rio Grande do Sul.
Resumo:
When a company desires to invest in a project, it must obtain resources needed to make the investment. The alternatives are using firm s internal resources or obtain external resources through contracts of debt and issuance of shares. Decisions involving the composition of internal resources, debt and shares in the total resources used to finance the activities of a company related to the choice of its capital structure. Although there are studies in the area of finance on the debt determinants of firms, the issue of capital structure is still controversial. This work sought to identify the predominant factors that determine the capital structure of Brazilian share capital, non-financial firms. This work was used a quantitative approach, with application of the statistical technique of multiple linear regression on data in panel. Estimates were made by the method of ordinary least squares with model of fixed effects. About 116 companies were selected to participate in this research. The period considered is from 2003 to 2007. The variables and hypotheses tested in this study were built based on theories of capital structure and in empirical researches. Results indicate that the variables, such as risk, size, and composition of assets and firms growth influence their indebtedness. The profitability variable was not relevant to the composition of indebtedness of the companies analyzed. However, analyzing only the long-term debt, comes to the conclusion that the relevant variables are the size of firms and, especially, the composition of its assets (tangibility).This sense, the smaller the size of the undertaking or the greater the representation of fixed assets in total assets, the greater its propensity to long-term debt. Furthermore, this research could not identify a predominant theory to explain the capital structure of Brazilian
Resumo:
The objective of this work was the development and improvement of the mathematical models based on mass and heat balances, representing the drying transient process fruit pulp in spouted bed dryer with intermittent feeding. Mass and energy balance for drying, represented by a system of differential equations, were developed in Fortran language and adapted to the condition of intermittent feeding and mass accumulation. Were used the DASSL routine (Differential Algebraic System Solver) for solving the differential equation system and used a heuristic optimization algorithm in parameter estimation, the Particle Swarm algorithm. From the experimental data food drying, the differential models were used to determine the quantity of water and the drying air temperature at the exit of a spouted bed and accumulated mass of powder in the dryer. The models were validated using the experimental data of drying whose operating conditions, air temperature, flow rate and time intermittency, varied within the limits studied. In reviewing the results predicted, it was found that these models represent the experimental data of the kinetics of production and accumulation of powder and humidity and air temperature at the outlet of the dryer
Resumo:
The aim of this study is to analyze the effect of migration on the income differential between northeastern migrants and nonmigrants and there by verify that the immigrants make up a group or not positively selected. The assumption that will be tested is that the presence of these immigrants affects income inequality in the region receptor, which may explain part of the high-stopping inequality in the Brazilian Northeast. The study is based on the literature selectivity migration introduced by Roy (1951), Borjas (1987) and Chiswick (1999). Does the estimated wage equation Mincer (1974) through the method of OLS, using information from the microdata sample of the 2010 Census, the Brazilian Institute of Geography and Statistics (IBGE). The results which correspond to the comparison of socioeconomic profile, showed that immigrants are more qualified and, on average, better paid than non-migrants. With the estimation of the model, it was found that, keeping all other variables constant, the income that immigrants earn is 14.43% higher than that of non-migrants. Thus, there was existence of positive selectivity in migration directed to the Northeast
Resumo:
Estudamos 6 pacientes, 2 cães e um coelho com intoxicação crotálica. Avaliamos a condução nervosa periférica sensitiva e motora, a transmissão neuromuscular e eletromiografias. As biópsias de músculo foram processadas por histoquímica. Os 6 pacientes apresentaram mononeuropatia sensitiva no nervo periférico adjacente ao local da inoculação do veneno e encontramos evidências histoquímicas de miopatia mitocondrial. Os defeitos da transmissão neuromuscular foram mínimos. A maioria dos autores admite que veneno crotálico determina síndrome miastênica. Nossos achados indicam que ptose palpebral, facies miastênico e fraqueza muscular observados após acidente crotálico, correspondem provavelmente a miopatia mitocondrial, muitas vezes transitória e reversível.
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)
Resumo:
O uso da técnica da camada equivalente na interpolação de dados de campo potencial permite levar em consideração que a anomalia, gravimétrica ou magnética, a ser interpolada é uma função harmônica. Entretanto, esta técnica tem aplicação computacional restrita aos levantamentos com pequeno número de dados, uma vez que ela exige a solução de um problema de mínimos quadrados com ordem igual a este número. Para viabilizar a aplicação da técnica da camada equivalente aos levantamentos com grande número de dados, nós desenvolvemos o conceito de observações equivalentes e o método EGTG, que, respectivamente, diminui a demanda em memória do computador e otimiza as avaliações dos produtos internos inerentes à solução dos problemas de mínimos quadrados. Basicamente, o conceito de observações equivalentes consiste em selecionar algumas observações, entre todas as observações originais, tais que o ajuste por mínimos quadrados, que ajusta as observações selecionadas, ajusta automaticamente (dentro de um critério de tolerância pré-estabelecido) todas as demais que não foram escolhidas. As observações selecionadas são denominadas observações equivalentes e as restantes são denominadas observações redundantes. Isto corresponde a partir o sistema linear original em dois sistemas lineares com ordens menores. O primeiro com apenas as observações equivalentes e o segundo apenas com as observações redundantes, de tal forma que a solução de mínimos quadrados, obtida a partir do primeiro sistema linear, é também a solução do segundo sistema. Este procedimento possibilita ajustar todos os dados amostrados usando apenas as observações equivalentes (e não todas as observações originais) o que reduz a quantidade de operações e a utilização de memória pelo computador. O método EGTG consiste, primeiramente, em identificar o produto interno como sendo uma integração discreta de uma integral analítica conhecida e, em seguida, em substituir a integração discreta pela avaliação do resultado da integral analítica. Este método deve ser aplicado quando a avaliação da integral analítica exigir menor quantidade de cálculos do que a exigida para computar a avaliação da integral discreta. Para determinar as observações equivalentes, nós desenvolvemos dois algoritmos iterativos denominados DOE e DOEg. O primeiro algoritmo identifica as observações equivalentes do sistema linear como um todo, enquanto que o segundo as identifica em subsistemas disjuntos do sistema linear original. Cada iteração do algoritmo DOEg consiste de uma aplicação do algoritmo DOE em uma partição do sistema linear original. Na interpolação, o algoritmo DOE fornece uma superfície interpoladora que ajusta todos os dados permitindo a interpolação na forma global. O algoritmo DOEg, por outro lado, otimiza a interpolação na forma local uma vez que ele emprega somente as observações equivalentes, em contraste com os algoritmos existentes para a interpolação local que empregam todas as observações. Os métodos de interpolação utilizando a técnica da camada equivalente e o método da mínima curvatura foram comparados quanto às suas capacidades de recuperar os valores verdadeiros da anomalia durante o processo de interpolação. Os testes utilizaram dados sintéticos (produzidos por modelos de fontes prismáticas) a partir dos quais os valores interpolados sobre a malha regular foram obtidos. Estes valores interpolados foram comparados com os valores teóricos, calculados a partir do modelo de fontes sobre a mesma malha, permitindo avaliar a eficiência do método de interpolação em recuperar os verdadeiros valores da anomalia. Em todos os testes realizados o método da camada equivalente recuperou mais fielmente o valor verdadeiro da anomalia do que o método da mínima curvatura. Particularmente em situações de sub-amostragem, o método da mínima curvatura se mostrou incapaz de recuperar o valor verdadeiro da anomalia nos lugares em que ela apresentou curvaturas mais pronunciadas. Para dados adquiridos em níveis diferentes o método da mínima curvatura apresentou o seu pior desempenho, ao contrário do método da camada equivalente que realizou, simultaneamente, a interpolação e o nivelamento. Utilizando o algoritmo DOE foi possível aplicar a técnica da camada equivalente na interpolação (na forma global) dos 3137 dados de anomalia ar-livre de parte do levantamento marinho Equant-2 e 4941 dados de anomalia magnética de campo total de parte do levantamento aeromagnético Carauari-Norte. Os números de observações equivalentes identificados em cada caso foram, respectivamente, iguais a 294 e 299. Utilizando o algoritmo DOEg nós otimizamos a interpolação (na forma local) da totalidade dos dados de ambos os levantamentos citados. Todas as interpolações realizadas não seriam possíveis sem a aplicação do conceito de observações equivalentes. A proporção entre o tempo de CPU (rodando os programas no mesmo espaço de memória) gasto pelo método da mínima curvatura e pela camada equivalente (interpolação global) foi de 1:31. Esta razão para a interpolação local foi praticamente de 1:1.
Resumo:
Tradicionalmente, o método dos mínimos quadrados tem sido empregado na inversão não linear de dados de campo potencial. No caso em que as observações dos campos gravimétrico ou magnético contém apenas ruído Gaussiano. O método dos mínimos quadrados não apresenta problemas. Entretanto, quando as observações são perturbadas por ruído não Gaussiano, ou mesmo por ruído não aleatório, como é o caso de muitos ruídos geológicos, o método dos mínimos quadrados torna-se bastante ineficiente, e métodos alternativos devem ser empregados a fim de produzir interpretações realísticas. Neste trabalho, uma comparação é feita entre os métodos dos mínimos quadrados, dos mínimos absolutos e do ajuste-M, aplicados à inversão não linear de dados de campo potencial. A comparação é efetuada usando-se dados teóricos, onde diversas situações geológicas são simuladas. Os resultados mostram que na presença de ruído geológico, caracterizado por pequeno corpo raso acima do corpo principal, ou por corpo grande, adjacente ao corpo principal, o ajuste-M apresenta desempenho muito superior ao dos mínimos quadrados e dos mínimos absolutos. Na presença de ruído Gaussiano, entretanto, o ajuste-M tem um desempenho inferior aos outros dois métodos. Como o ruído Gaussiano é um ruído branco, parte dele pode ser removido por um filtro passa baixa adequado, sem muita perda do sinal, o que não ocorre com o ruído geológico que contém componentes importantes de baixo número de onda. Desse modo o ajuste-M se torna uma ferramenta importante na interpretação de áreas geologicamente complexas, onde é comum a contaminação das anomalias por ruído geológico. Os três métodos em estudo são aplicados a uma anomalia magnética real causada por uma intrusão de diabásio em forma de dique, em sedimentos arenosos da formação Piauí na Bacia do Parnaíba. Os três métodos apresentaram resultados semelhantes indicando que tanto o nível de ruído Gaussiano como geológico são baixos nesta anomalia.