1000 resultados para Métodos de interpolação


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Neste trabalho, foi desenvolvido e implementado um método de discretização espacial baseado na lei de Coulomb para geração de pontos que possam ser usados em métodos meshless para solução das equações de Maxwell. Tal método aplica a lei de Coulomb para gerar o equilíbrio espacial necessário para gerar alta qualidade de discretização espacial para um domínio de análise. Este método é denominado aqui de CLDM (Coulomb Law Discretization Method ) e é aplicado a problemas bidimensionais. Utiliza-se o método RPIM (Radial Point Interpolation Method) com truncagem por UPML (Uniaxial Perfectlly Matched Layers) para solução das equações de Maxwell no domínio do tempo (modo TMz).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este artigo analisa a variação da precipitação na bacia hidrográfica Tocantins-Araguaia no período de duas décadas, tomando como base as estações pluviométricas do banco de dados HidroWeb, da Agência Nacional de Águas, nos anos de 1983, 1993 e 2003. As informações foram sistematizadas e tratadas a partir de métodos hidrológicos como método de contorno e interpolação por krigagem ordinária. O tratamento considerou a consistência dos dados das estações e os períodos de estudo. Os resultados demonstraram que o volume total de água precipitada anualmente não se alterou significativamente nos 20 anos estudados, ocorrendo, no entanto, uma significativa variação em sua distribuição espacial. Analisando-se as isoietas e o volume precipitado constatou-se que houve deslocamento da precipitação, no sentido Tocantins Baixo (TOB) aproximadamente de 10% do volume total precipitado. Tal deslocamento pode estar ligado a mudanças globais e/ou pode ser causado por atividades antrópicas ou fenômenos naturais regionais, cuja análise foge ao escopo deste trabalho.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A condutividade hidráulica (K) é um dos parâmetros controladores da magnitude da velocidade da água subterrânea, e consequentemente, é um dos mais importantes parâmetros que afetam o fluxo subterrâneo e o transporte de solutos, sendo de suma importância o conhecimento da distribuição de K. Esse trabalho visa estimar valores de condutividade hidráulica em duas áreas distintas, uma no Sistema Aquífero Guarani (SAG) e outra no Sistema Aquífero Bauru (SAB) por meio de três técnicas geoestatísticas: krigagem ordinária, cokrigagem e simulação condicional por bandas rotativas. Para aumentar a base de dados de valores de K, há um tratamento estatístico dos dados conhecidos. O método de interpolação matemática (krigagem ordinária) e o estocástico (simulação condicional por bandas rotativas) são aplicados para estimar os valores de K diretamente, enquanto que os métodos de krigagem ordinária combinada com regressão linear e cokrigagem permitem incorporar valores de capacidade específica (Q/s) como variável secundária. Adicionalmente, a cada método geoestatístico foi aplicada a técnica de desagrupamento por célula para comparar a sua capacidade de melhorar a performance dos métodos, o que pode ser avaliado por meio da validação cruzada. Os resultados dessas abordagens geoestatísticas indicam que os métodos de simulação condicional por bandas rotativas com a técnica de desagrupamento e de krigagem ordinária combinada com regressão linear sem a técnica de desagrupamento são os mais adequados para as áreas do SAG (rho=0.55) e do SAB (rho=0.44), respectivamente. O tratamento estatístico e a técnica de desagrupamento usados nesse trabalho revelaram-se úteis ferramentas auxiliares para os métodos geoestatísticos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho apresenta uma nova metodologia para otimizar carteiras de ativos financeiros. A metodologia proposta, baseada em interpoladores universais tais quais as Redes Neurais Artificiais e a Krigagem, permite aproximar a superfície de risco e consequentemente a solução do problema de otimização associado a ela de forma generalizada e aplicável a qualquer medida de risco disponível na literatura. Além disto, a metodologia sugerida permite que sejam relaxadas hipóteses restritivas inerentes às metodologias existentes, simplificando o problema de otimização e permitindo que sejam estimados os erros na aproximação da superfície de risco. Ilustrativamente, aplica-se a metodologia proposta ao problema de composição de carteiras com a Variância (controle), o Valor-em-Risco (VaR) e o Valor-em-Risco Condicional (CVaR) como funções objetivo. Os resultados são comparados àqueles obtidos pelos modelos de Markowitz e Rockafellar, respectivamente.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O uso de tecnologias no setor florestal tem permitido dentre outras possibilidades, conhecer a real condição da floresta desempenhando o menor trabalho possível, o que garante uma maior eficiência ao se tratar, por exemplo, em tipos de amostragem no inventário florestal. A pesquisa teve como objetivo testar a eficiência da amostragem aleatória e sistemática em quatro níveis de intensidade amostral para produzir estimativas de biomassa seca acima do solo e comparar mapas de predição de biomassa com dados gerados pelo LIDAR (Light Detection and Ranging). O trabalho foi realizado em uma reserva florestal de 800 ha do Campo Experimental da Embrapa Acre. Os dados foram fornecidos pela Embrapa Acre e gerados em duas fases, a primeira por meio de um inventário 100%, no qual foi utilizado para simular a amostragem na área de estudo, sendo utilizado todas as árvores vivas com DAP > 30 cm, a segunda fase através de dados LIDAR, ou seja, utilizando o perfilhamento à Laser aerotransportado. Para simular a amostragem foram utilizados três tamanhos de parcelas distintos 20mx20m, 50mx50m e 100mx100m em diferentes intensidades amostrais que foram 0,5%, 1%, 5% e 10%. O parâmetro utilizado para comparação foi o da biomassa seca acima do solo em Mg.ha-1 pelo teste Tukey, a 95% de probabilidade através do programa Minitab17 e as parcelas foram sorteadas e distribuídas por meio de simulações de instalação de parcelas utilizando o Arc GIS 10. Os dados LIDAR foram amostrados por uma empresa contratada, a partir deles foram realizados todos os modelos e a extrapolação das métricas para toda a área através do comando gridmetrics. Os mapas de predição foram confeccionados pela ferramenta de interpolação vizinhos próximos do Arc GIS 10 e as comparações entre os mapas foram feitas pela ferramenta do Arc GIS 10, Zonal statistic. A biomassa média obtida do inventário florestal foi de 155,2 Mg.ha-1, sendo que o tamanho de parcela ótimo encontrado foi de 50mx50m e os tratamentos que mais se aproximaram da média do inventário florestal foram o aleatório com intensidade amostral de 5% e o sistemático com intensidade amostral de 10%. Os tratamentos que atenderam o erro aceitável de 10% foram à amostragem aleatória com intensidades amostrais de 5% e 10% e a amostragem sistemática com intensidade amostral de 10%. Não houve diferença estatística significativa entre os tratamentos. Os mapas de vegetação baseados na biomassa que melhor representaram a biomassa seca acima do solo no tamanho de parcela 50mx50m foram na amostragem aleatória com intensidade amostral de 10%, e na amostragem sistemática com intensidades amostrais de 5% e 10%, comparando com os mapas gerados a partir do inventário 100% e dos dados LIDAR. Pode-se concluir que o tamanho ótimo de parcela foi de 50mx50m, com intensidades amostrais acima de 5% não havendo diferença entre os métodos de amostragem e que os mapas gerados pelo inventário 100% e pelos dados LIDAR foram equivalentes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

We review here the chemistry of reactive oxygen and nitrogen species, their biological sources and targets; particularly, biomolecules implicated in the redox balance of the human blood, and appraise the analytical methods available for their detection and quantification. Those biomolecules are represented by the enzymatic antioxidant defense machinery, whereas coadjutant reducing protection is provided by several low molecular weight molecules. Biomolecules can be injured by RONS yielding a large repertoire of oxidized products, some of which can be taken as biomarkers of oxidative damage. Their reliable determination is of utmost interest for their potentiality in diagnosis, prevention and treatment of maladies.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In this work, the artificial neural networks (ANN) and partial least squares (PLS) regression were applied to UV spectral data for quantitative determination of thiamin hydrochloride (VB1), riboflavin phosphate (VB2), pyridoxine hydrochloride (VB6) and nicotinamide (VPP) in pharmaceutical samples. For calibration purposes, commercial samples in 0.2 mol L-1 acetate buffer (pH 4.0) were employed as standards. The concentration ranges used in the calibration step were: 0.1 - 7.5 mg L-1 for VB1, 0.1 - 3.0 mg L-1 for VB2, 0.1 - 3.0 mg L-1 for VB6 and 0.4 - 30.0 mg L-1 for VPP. From the results it is possible to verify that both methods can be successfully applied for these determinations. The similar error values were obtained by using neural network or PLS methods. The proposed methodology is simple, rapid and can be easily used in quality control laboratories.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In this review recent methods developed and applied to solve criminal occurences related to documentoscopy, ballistic and drugs of abuse are discussed. In documentoscopy, aging of ink writings, the sequence of line crossings and counterfeiting of documents are aspects to be solved with reproducible, fast and non-destructive methods. In ballistic, the industries are currently producing ''lead-free'' or ''nontoxic'' handgun ammunitions, so new methods of gunshot residues characterization are being presented. For drugs analysis, easy ambient sonic-spray ionization mass spectrometry (EASI-MS) is shown to provide a relatively simple and selective screening tool to distinguish m-CPP and amphetamines (MDMA) tablets, cocaine and LSD.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This paper presents two techniques to evaluate soil mechanical resistance to penetration as an auxiliary method to help in a decision-making in subsoiling operations. The decision is based on the volume of soil mobilized as a function of the considered critical soil resistance to penetration in each case. The first method, probabilistic, uses statistical techniques to define the volume of soil to be mobilized. The other method, deterministic, determines the percentage of soil to be mobilized and its spatial distribution. Both cases plot the percentage curves of experimental data related to the soil mechanical resistance to penetration equal or larger to the established critical level and the volume of soil to be mobilized as a function of critical level. The deterministic method plots showed the spatial distribution of the data with resistance to penetration equal or large than the critical level. The comparison between mobilized soil curves as a function of critical level using both methods showed that they can be considered equivalent. The deterministic method has the advantage of showing the spatial distribution of the critical points.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This study presents the results of a cost-effectiveness analysis in a controlled clinical trial on the effectiveness of a modified glass ionomer resin sealant ( Vitremer, 3M ESPE) and the application of fluoride varnish (Duraphat, Colgate) on occlusal surfaces of first permanent molars in children 6-8 years of age (N = 268), according to caries risk (high versus low). Children were examined semiannually by the same calibrated dentist for 24 months after allocation in six groups: high and low risk controls (oral health education every three months); high and low risk with varnish (oral health education every three months + varnish biannually); and high and low risk with sealant (oral health education every three months + a single application of sealant). Economic analysis showed that sealing permanent first molars of high-risk schoolchildren showed a C/E ratio of US$ 119.80 per saved occlusal surface and an incremental C/E ratio of US$ 108.36 per additional saved occlusal surface. The study concluded that sealing permanent first molars of high-risk schoolchildren was the most cost-effective intervention.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The purpose of this study was to verify whether the Greulich & Pyle (GP), Greulich & Pyle Visual (GPV) and Tanner & Whitehouse (TW) methods for estimating skeletal age could be applied in the Brazilian population, and which of these three methods could be considered more reliable when compared with the chronological age of the individuals. This study was based on one hundred and sixty volunteers (80 females and 80 males) with ages between 6 years and 10 months and 14 years and 9 months. The results showed that for the GP method, the correlations with chronological age were 0.95 for males and 0.97 for females. For the GPV method, the correlations were 0.96 and 0.97, respectively and for TW, 0.96 and 0.97. The results showed that the Greulich & Pyle, Greulich & Pyle Visual and Tanner & Whitehouse methods presented high correlation values when compared with the chronological age of the individuals. Corrective factors were established to make these methods applicable to the Brazilian population.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Evolving interfaces were initially focused on solutions to scientific problems in Fluid Dynamics. With the advent of the more robust modeling provided by Level Set method, their original boundaries of applicability were extended. Specifically to the Geometric Modeling area, works published until then, relating Level Set to tridimensional surface reconstruction, centered themselves on reconstruction from a data cloud dispersed in space; the approach based on parallel planar slices transversal to the object to be reconstructed is still incipient. Based on this fact, the present work proposes to analyse the feasibility of Level Set to tridimensional reconstruction, offering a methodology that simultaneously integrates the proved efficient ideas already published about such approximation and the proposals to process the inherent limitations of the method not satisfactorily treated yet, in particular the excessive smoothing of fine characteristics of contours evolving under Level Set. In relation to this, the application of the variant Particle Level Set is suggested as a solution, for its intrinsic proved capability to preserve mass of dynamic fronts. At the end, synthetic and real data sets are used to evaluate the presented tridimensional surface reconstruction methodology qualitatively.