550 resultados para SMOOTHING SPLINES
Resumo:
O objetivo do trabalho foi determinar o tamanho adequado de amostra para estimar o volume de fustes de espécies florestais de uma população de árvores a serem cortadas no sistema de manejo florestal da empresa Cikel Brasil Verde Madeiras - Pará. Utilizaram-se as metodologias da amostragem sistemática e do estimador geoestatístico da krigagem ordinária com simulação sequencial, respectivamente para a escolha das amostras e estimação dos volumes dos fustes das árvores. Os resultados mostraram que os métodos podem ser utilizados no cálculo dos volumes de fustes de árvores. Entretanto, o método da krigagem apresenta um efeito de suavização, tendo como conseqüência uma subestimação dos volumes calculados. Neste caso, um fator de correção foi aplicado para minimizar o efeito da suavização. A simulação sequencial indicativa apresentou resultados mais precisos em relação à krigagem, uma vez que tal método apresentou algumas vantagens, tal como a não exigência de amostras com distribuições normais e ausência de efeito de suavização, característico dos métodos de interpolação.
Resumo:
A presente dissertação consta de estudos sobre deconvolução sísmica, onde buscamos otimizar desempenhos na operação de suavização, na resolução da estimativa da distribuição dos coeficientes de reflexão e na recuperação do pulso-fonte. Os filtros estudados são monocanais, e as formulações consideram o sismograma como o resultado de um processo estocástico estacionário, e onde demonstramos os efeitos de janelas e de descoloração. O principio aplicado é o da minimização da variância dos desvios entre o valor obtido e o desejado, resultando no sistema de equações normais Wiener-Hopf cuja solução é o vetor dos coeficientes do filtro para ser aplicado numa convolução. O filtro de deconvolução ao impulso é desenhado considerando a distribuição dos coeficientes de reflexão como uma série branca. O operador comprime bem os eventos sísmicos a impulsos, e o seu inverso é uma boa aproximação do pulso-fonte. O janelamento e a descoloração melhoram o resultado deste filtro. O filtro de deconvolução aos impulsos é desenhado utilizando a distribuição dos coeficientes de reflexão. As propriedades estatísticas da distribuição dos coeficientes de reflexão tem efeito no operador e em seu desempenho. Janela na autocorrelação degrada a saída, e a melhora é obtida quando ela é aplicada no operador deconvolucional. A transformada de Hilbert não segue o princípio dos mínimos-quadrados, e produz bons resultados na recuperação do pulso-fonte sob a premissa de fase-mínima. O inverso do pulso-fonte recuperado comprime bem os eventos sísmicos a impulsos. Quando o traço contém ruído aditivo, os resultados obtidos com auxilio da transformada de Hilbert são melhores do que os obtidos com o filtro de deconvolução ao impulso. O filtro de suavização suprime ruído presente no traço sísmico em função da magnitude do parâmetro de descoloração utilizado. A utilização dos traços suavizados melhora o desempenho da deconvolução ao impulso. A descoloração dupla gera melhores resultados do que a descoloração simples. O filtro casado é obtido através da maximização de uma função sinal/ruído. Os resultados obtidos na estimativa da distribuição dos coeficientes de reflexão com o filtro casado possuem melhor resolução do que o filtro de suavização.
Resumo:
Os principais objetivos deste trabalho são propor um algoritmo eficiente e o mais automático possível para estimar o que está coberto por regiões de nuvens e sombras em imagens de satélite; e um índice de confiabilidade, que seja aplicado previamente à imagem, visando medir a viabilidade da estimação das regiões cobertas pelos componentes atmosféricos usando tal algoritmo. A motivação vem dos problemas causados por esses elementos, entre eles: dificultam a identificação de objetos de imagem, prejudicam o monitoramento urbano e ambiental, e desfavorecem etapas cruciais do processamento digital de imagens para extrair informações ao usuário, como segmentação e classificação. Através de uma abordagem híbrida, é proposto um método para decompor regiões usando um filtro passa-baixas não-linear de mediana, a fim de mapear as regiões de estrutura (homogêneas), como vegetação, e de textura (heterogêneas), como áreas urbanas, na imagem. Nessas áreas, foram aplicados os métodos de restauração Inpainting por suavização baseado em Transformada Cosseno Discreta (DCT), e Síntese de Textura baseada em modelos, respectivamente. É importante salientar que as técnicas foram modificadas para serem capazes de trabalhar com imagens de características peculiares que são obtidas por meio de sensores de satélite, como por exemplo, as grandes dimensões e a alta variação espectral. Já o índice de confiabilidade, tem como objetivo analisar a imagem que contém as interferências atmosféricas e daí estimar o quão confiável será a redefinição com base no percentual de cobertura de nuvens sobre as regiões de textura e estrutura. Tal índice é composto pela combinação do resultado de algoritmos supervisionados e não-supervisionados envolvendo 3 métricas: Exatidão Global Média (EGM), Medida De Similaridade Estrutural (SSIM) e Confiança Média Dos Pixels (CM). Finalmente, verificou-se a eficácia destas metodologias através de uma avaliação quantitativa (proporcionada pelo índice) e qualitativa (pelas imagens resultantes do processamento), mostrando ser possível a aplicação das técnicas para solucionar os problemas que motivaram a realização deste trabalho.
Resumo:
Phosphorus is one of the limiting nutrients for sugarcane development in Brazilian soils. The spatial variability of this nutrient is great, defined by the properties that control its adsorption and desorption reactions. Spatial estimates to characterize this variability are based on geostatistical interpolation. However, inherent uncertainties in the procedure of these estimates are related to the variability structure of the property under study and the sample configuration of the area. Thus, the assessment of the uncertainty of estimates associated with the spatial distribution of available P (Plabile) is decisive to optimize the use of phosphate fertilizers. The purpose of this study was to evaluate the performance of sequential Gaussian simulation (sGs) and ordinary kriging (OK) in the modeling of uncertainty in available P estimates. A sampling grid with 626 points was established in a 200-ha experimental sugarcane field in Tabapuã, São Paulo State. The sGs algorithm generated 200 realizations. The sGs realizations reproduced the statistics and the distribution of the sample data. The G statistic (0.81) indicated good agreement between the values of simulated and observed fractions. The sGs realizations preserved the spatial variability of Plabile without the smoothing effect of the OK map. The accuracy in the reproduction of the variogram of the sample data obtained by the sGs realizations was on average 240 times higher than that obtained by OK. The uncertainty map, obtained by OK, showed less variation in the study area than that obtained by sGs. Thus, the evaluation of uncertainties by sGs was more informative and can be used to define and delimit specific management areas more precisely.
Resumo:
Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)
Resumo:
Pós-graduação em Engenharia Elétrica - FEB
Resumo:
Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)
Resumo:
The continuous advance of the Brazilian economy and increased competition in the heavy equipment market, increasingly point to the need for accurate sales forecasting processes, which allow an optimized strategic planning and therefore better overall results. In this manner, we found that the sales forecasting process deserves to be studied and understood, since it has a key role in corporate strategic planning. Accurate forecasting methods enable direction of companies to circumvent the management difficulties and the variations of finished goods inventory, which make companies more competitive. By analyzing the stages of the sales forecasting it was possible to observe that this process is methodical, bureaucratic and demands a lot of training for their managers and professionals. In this paper we applied the modeling method and the selecting process which has been done for Armstrong to select the most appropriate technique for two products of a heavy equipment industry and it has been through this method that the triple exponential smoothing technique has been chosen for both products. The results obtained by prediction with the triple exponential smoothing technique were better than forecasts prepared by the industry experts
Resumo:
Pós-graduação em Engenharia Elétrica - FEB
Resumo:
This work aims to present the design and development of a speed reducer worm gear that will be implemented on an inclined treadmill that aims to raise the load below the top floor. The project start was made with research on issues related to mechanisms and machine elements, and these theories of fundamental importance in the development of device components, along with the help of SolidWorks software that was used to model the main parts of the project and Microsoft Office Excel 2007 was used to alight formulas to perform calculations of the project. All data for calculations were taken from the conditions of the problem to be solved in the best possible way the proposed problem (lifting load from the belt). Following the entire sequence of design gearbox assembly, beginning in pre-sizing and endless selection of electric motor, which consists of an iterative project, then scaling the worm gear and crown, shafts, splines, calculation and bearing selection
Resumo:
Pós-graduação em Biometria - IBB
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Background: Although linear growth during childhood may be affected by early-life exposures, few studies have examined whether the effects of these exposures linger on during school age, particularly in low-and middle-income countries. Methods: We conducted a population-based longitudinal study of 256 children living in the Brazilian Amazon, aged 0.1 y to 5.5 y in 2003. Data regarding socioeconomic and maternal characteristics, infant feeding practices, morbidities, and birth weight and length were collected at baseline of the study (2003). Child body length/height was measured at baseline and at follow-up visits (in 2007 and 2009). Restricted cubic splines were used to construct average height-for-age Z score (HAZ) growth curves, yielding estimated HAZ differences among exposure categories at ages 0.5 y, 1 y, 2 y, 5 y, 7 y, and 10 y. Results: At baseline, median age was 2.6 y (interquartile range, 1.4 y-3.8 y), and mean HAZ was -0.53 (standard deviation, 1.15); 10.2% of children were stunted. In multivariable analysis, children in households above the household wealth index median were 0.30 Z taller at age 5 y (P = 0.017), and children whose families owned land were 0.34 Z taller by age 10 y (P = 0.023), when compared with poorer children. Mothers in the highest tertile for height had children whose HAZ were significantly higher compared with those of children from mothers in the lowest height tertile at all ages. Birth weight and length were positively related to linear growth throughout childhood; by age 10 y, children weighing >3500 g at birth were 0.31 Z taller than those weighing 2501 g to 3500 g (P = 0.022) at birth, and children measuring >= 51 cm at birth were 0.51 Z taller than those measuring <= 48 cm (P = 0.005). Conclusions: Results suggest socioeconomic background is a potentially modifiable predictor of linear growth during the school-aged years. Maternal height and child's anthropometric characteristics at birth are positively associated with HAZ up until child age 10 y.
Resumo:
Purpose: To evaluate the relationship between glaucomatous structural damage assessed by the Cirrus Spectral Domain OCT (SDOCT) and functional loss as measured by standard automated perimetry (SAP). Methods: Four hundred twenty-two eyes (78 healthy, 210 suspects, 134 glaucomatous) of 250 patients were recruited from the longitudinal Diagnostic Innovations in Glaucoma Study and from the African Descent and Glaucoma Evaluation Study. All eyes underwent testing with the Cirrus SDOCT and SAP within a 6-month period. The relationship between parapapillary retinal nerve fiber layer thickness (RNFL) sectors and corresponding topographic SAP locations was evaluated using locally weighted scatterplot smoothing and regression analysis. SAP sensitivity values were evaluated using both linear as well as logarithmic scales. We also tested the fit of a model (Hood) for structure-function relationship in glaucoma. Results: Structure was significantly related to function for all but the nasal thickness sector. The relationship was strongest for superotemporal RNFL thickness and inferonasal sensitivity (R(2) = 0.314, P < 0.001). The Hood model fitted the data relatively well with 88% of the eyes inside the 95% confidence interval predicted by the model. Conclusions: RNFL thinning measured by the Cirrus SDOCT was associated with correspondent visual field loss in glaucoma.