911 resultados para Spatial Frequency
Resumo:
Airborne scanning laser altimetry (LiDAR) is an important new data source for river flood modelling. LiDAR can give dense and accurate DTMs of floodplains for use as model bathymetry. Spatial resolutions of 0.5m or less are possible, with a height accuracy of 0.15m. LiDAR gives a Digital Surface Model (DSM), so vegetation removal software (e.g. TERRASCAN) must be used to obtain a DTM. An example used to illustrate the current state of the art will be the LiDAR data provided by the EA, which has been processed by their in-house software to convert the raw data to a ground DTM and separate vegetation height map. Their method distinguishes trees from buildings on the basis of object size. EA data products include the DTM with or without buildings removed, a vegetation height map, a DTM with bridges removed, etc. Most vegetation removal software ignores short vegetation less than say 1m high. We have attempted to extend vegetation height measurement to short vegetation using local height texture. Typically most of a floodplain may be covered in such vegetation. The idea is to assign friction coefficients depending on local vegetation height, so that friction is spatially varying. This obviates the need to calibrate a global floodplain friction coefficient. It’s not clear at present if the method is useful, but it’s worth testing further. The LiDAR DTM is usually determined by looking for local minima in the raw data, then interpolating between these to form a space-filling height surface. This is a low pass filtering operation, in which objects of high spatial frequency such as buildings, river embankments and walls may be incorrectly classed as vegetation. The problem is particularly acute in urban areas. A solution may be to apply pattern recognition techniques to LiDAR height data fused with other data types such as LiDAR intensity or multispectral CASI data. We are attempting to use digital map data (Mastermap structured topography data) to help to distinguish buildings from trees, and roads from areas of short vegetation. The problems involved in doing this will be discussed. A related problem of how best to merge historic river cross-section data with a LiDAR DTM will also be considered. LiDAR data may also be used to help generate a finite element mesh. In rural area we have decomposed a floodplain mesh according to taller vegetation features such as hedges and trees, so that e.g. hedge elements can be assigned higher friction coefficients than those in adjacent fields. We are attempting to extend this approach to urban area, so that the mesh is decomposed in the vicinity of buildings, roads, etc as well as trees and hedges. A dominant points algorithm is used to identify points of high curvature on a building or road, which act as initial nodes in the meshing process. A difficulty is that the resulting mesh may contain a very large number of nodes. However, the mesh generated may be useful to allow a high resolution FE model to act as a benchmark for a more practical lower resolution model. A further problem discussed will be how best to exploit data redundancy due to the high resolution of the LiDAR compared to that of a typical flood model. Problems occur if features have dimensions smaller than the model cell size e.g. for a 5m-wide embankment within a raster grid model with 15m cell size, the maximum height of the embankment locally could be assigned to each cell covering the embankment. But how could a 5m-wide ditch be represented? Again, this redundancy has been exploited to improve wetting/drying algorithms using the sub-grid-scale LiDAR heights within finite elements at the waterline.
Resumo:
We explored the dependency of the saccadic remote distractor effect (RDE) on the spatial frequency content of target and distractor Gabor patches. A robust RDE was obtained with low-medium spatial frequency distractors, regardless of the spatial frequency of the tat-get. High spatial frequency distractors interfered to a similar extent when the target was of the same spatial frequency. We developed a quantitative model based on lateral inhibition within an oculomotor decision unit. This lateral inhibition mechanism cannot account for the interaction observed between target and distractor spatial frequency, pointing to the existence of channel interactions at an earlier level. (C) 2004 Elsevier Ltd. All rights reserved.
Resumo:
In numerical weather prediction (NWP) data assimilation (DA) methods are used to combine available observations with numerical model estimates. This is done by minimising measures of error on both observations and model estimates with more weight given to data that can be more trusted. For any DA method an estimate of the initial forecast error covariance matrix is required. For convective scale data assimilation, however, the properties of the error covariances are not well understood. An effective way to investigate covariance properties in the presence of convection is to use an ensemble-based method for which an estimate of the error covariance is readily available at each time step. In this work, we investigate the performance of the ensemble square root filter (EnSRF) in the presence of cloud growth applied to an idealised 1D convective column model of the atmosphere. We show that the EnSRF performs well in capturing cloud growth, but the ensemble does not cope well with discontinuities introduced into the system by parameterised rain. The state estimates lose accuracy, and more importantly the ensemble is unable to capture the spread (variance) of the estimates correctly. We also find, counter-intuitively, that by reducing the spatial frequency of observations and/or the accuracy of the observations, the ensemble is able to capture the states and their variability successfully across all regimes.
Resumo:
When human observers are exposed to even slight motion signals followed by brief visual transients—stimuli containing no detectable coherent motion signals—they perceive large and salient illusory jumps. This novel effect, which we call “high phi”, challenges well-entrenched assumptions about the perception of motion, namely the minimal-motion principle and the breakdown of coherent motion perception with steps above an upper limit. Our experiments with transients such as texture randomization or contrast reversal show that the magnitude of the jump depends on spatial frequency and transient duration, but not on the speed of the inducing motion signals, and the direction of the jump depends on the duration of the inducer. Jump magnitude is robust across jump directions and different types of transient. In addition, when a texture is actually displaced by a large step beyond dmax, a breakdown of coherent motion perception is expected, but in the presence of an inducer observers again perceive coherent displacements at or just above dmax. In sum, across a large variety of stimuli, we find that when incoherent motion noise is preceded by a small bias, instead of perceiving little or no motion, as suggested by the minimal-motion principle, observers perceive jumps whose amplitude closely follows their own dmax limits.
Resumo:
A method for improving the accuracy of surface shape measurement by multiwavelength holography is presented. In our holographic setup, a Bi12TiO20 photorefractive crystal was the holographic recording medium, and a multimode diode laser emitting in the red region was the light source in a two-wave mixing scheme. on employing such lasers the resulting holographic image appears covered with interference fringes corresponding to the object relief, and the interferogram spatial frequency is proportional to the diode laser's free spectral range (FSR). Our method consists in increasing the effective free spectral range of the laser by positioning a Fabry-Perot etalon at the laser output for mode selection. As larger effective values of the laser FSR were achieved, higher-spatial-frequency interferograms were obtained and therefore more sensitive and accurate measurements were performed. The quantitative evaluation of the interferograms was made through the phase-stepping technique, and the phase map unwrapping was carried out through the cellular-automata method. For a given surface, shape measurements with different interferogram spatial frequencies were performed and compared with respect to measurement noise and visual inspection. (c) 2007 Society of Photo-Optical Instrumentation Engineers.
Resumo:
Relief Bragg gratings were recorded on the surface of Ga-Ge-S glass samples by interference of two UV laser beams at 351 nm, Scanning force microscopy was used to perform a 3D image analysis of the resulting surface topography, which shows the superposition of an imprinted grating over the base topography of the glass. An important question regarding the efficiency of the grating is to determine to what extent the base topography reduces the intended coherent scattering of the grating because of its stochastic character. To answer this question we separated both base and grating structures by Fourier filtering, examined both spatial frequency and roughness, and determined the correlation. (C) 2001 Elsevier B.V. B.V. All rights reserved.
Resumo:
Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)
Resumo:
The significance of recruitment systems for community structure of epigaeic ants in a tropical upland forest in southern Brazil was evaluated by examining patterns of spatial occurrence at fixed points. Normal exploratory activity was evaluated with pitfall traps, while the effect of recruitment and diet was evaluated by using honey and sardine baits at the same points. Through techniques developed for environmental impact assessment, the significance of recruitment was evaluated following perturbation, or the placement of bait. Of the 46 species encountered, 15 were sufficiently frequent to study. Of these, only 6 showed significant spatial frequency changes at baits when compared with pitfall trap collections. In one analysis, monthly differences were important for a few smaller species, suggesting thermic limitations, while bait types either increased or decreased spatial point usage. The magnitude of spatial point variation is an index for the strength of recruitment in community organization. Bait types suggest nutritional possibilities of each species. Both recruitment and diet are probably functions of the species composition of the ant community.
Resumo:
Semi-automatic building detection and extraction is a topic of growing interest due to its potential application in such areas as cadastral information systems, cartographic revision, and GIS. One of the existing strategies for building extraction is to use a digital surface model (DSM) represented by a cloud of known points on a visible surface, and comprising features such as trees or buildings. Conventional surface modeling using stereo-matching techniques has its drawbacks, the most obvious being the effect of building height on perspective, shadows, and occlusions. The laser scanner, a recently developed technological tool, can collect accurate DSMs with high spatial frequency. This paper presents a methodology for semi-automatic modeling of buildings which combines a region-growing algorithm with line-detection methods applied over the DSM.
Resumo:
The application of multi-wavelength holography for surface shape measurement is presented. In our holographic setup a Bi12TiO 20 (BTO) photorefractive crystal was the holographic recording medium and a multimode diode laser emitting in the red region was the light source in a two-wave mixing scheme. The holographic imaging with multimode lasers results in multiple holograms in the BTO. By employing such lasers the resulting holographic image appears covered of interference fringes corresponding to the object relief and the interferogram spatial frequency is proportional to the diode laser free spectral range (FSR). We used a Fabry-Perot étalon at the laser output for laser mode selection. Thus, larger effective values of the laser FSR were achieved, leading to higher-spatial frequency interferograms and therefore to more sensitive and accurate measurements. The quantitative evaluation of the interferograms was performed through the phase stepping technique (PST) and the phase map unwrapping was carried out through the Cellular-Automata method. For a given surface, shape measurements with different interferogram spatial frequencies were performed and compared, concerning measurement noise and visual inspection.
Resumo:
In this work we studied the changes of the optical constants of films in the binary system Sb2O3-Sb2S3 induced by light in the VIS-UV. The measurements were performed before and after homogeneous irradiation of the films to a Hg lamp and in real time during the holographic exposure of the samples (at 458nm). Changes of the absorption coefficient (amplitude grating) and refractive index (phase grating) were measured simultaneously using the self-diffraction using the holographic setup. Besides the films presented a strong photodarkening effect under homogeneous irradiation, the samples holographically exposed presented only refractive index modulations. None amplitude modulation was measured in real time for spatial frequencies of about 1000 l/mm. © 2009 SPIE.
Resumo:
As contribuições dos mecanismos de detecção de contraste ao potencial cortical provocado visual (VECP) têm sido investigadas com o estudo das funções de resposta ao contraste e de resposta à frequência espacial. Anteriormente, o uso de sequências-m para o controle da estimulação era restrito à estimulação eletrofisiológica multifocal que, em alguns aspectos, se diferencia substancialmente do VECP convencional. Estimulações únicas com contraste espacial controlado por sequências-m não foram extensivamente estudadas ou comparadas às respostas obtidas com as técnicas multifocais. O objetivo deste trabalho foi avaliar a influência da frequência espacial e do contraste de redes senoidais no VECP gerado por estimulação pseudoaleatória. Nove sujeitos normais foram estimulados por redes senoidais acromáticas controladas por uma sequência-m binária pseudoaleatória em 7 frequências espaciais (0,4 a 10 cpg) em 3 tamanhos diferentes (4º, 8º e 16º de ângulo visual). Em 8º, foram testados adicionalmente seis níveis de contraste (3,12% a 99%). O kernel de primeira ordem não forneceu respostas consistentes com sinais mensuráveis através das frequências espaciais e dos contrastes testados – o sinal foi muito pequeno ou ausente – enquanto o primeiro e o segundo slice do kernel de segunda ordem exibiram respostas bastante confiáveis para as faixas de estímulo testadas. As principais diferenças entre os resultados obtidos com o primeiro e o segundo slice do kernel de segunda ordem foram o perfil das funções de amplitude versus contraste e de amplitude versus frequência espacial. Os resultados indicaram que o primeiro slice do kernel de segunda ordem foi dominado pela via M, porém para algumas condições de estímulo, pôde ser percebida a contribuição da via P. Já o segundo slice do kernel de segunda ordem refletiu contribuição apenas da via P. O presente trabalho estende achados anteriores sobre a contribuição das vias visuais ao VECP gerado por estimulação pseudoaleatória para uma grande faixa de frequências espaciais.
Resumo:
O objetivo deste estudo foi estimar a entropia conjunta do sistema visual humano no domínio do espaço e no domínio das freqüências espaciais através de funções psicométricas. Estas foram obtidas com testes de discriminação de estímulos com luminância ou cromaticidade moduladas por funções de Gábor. A essência do método consistiu em avaliar a entropia no domínio do espaço, testando-se a capacidade do sujeito em discriminar estímulos que diferiam apenas em extensão espacial, e avaliar a entropia no domínio das freqüências espaciais, testando-se a capacidade do sujeito em discriminar estímulos que diferiam apenas em freqüência espacial. A entropia conjunta foi calculada, então, a partir desses dois valores individuais de entropia. Três condições visuais foram estudadas: acromática, cromática sem correção fina para eqüiluminância e cromática com correção para eqüiluminância através de fotometria com flicker heterocromático. Quatro sujeitos foram testados nas três condições, dois sujeitos adicionais foram testados na condição cromática sem eqüiluminância fina e um sétimo sujeito também fez o teste acromático. Todos os sujeitos foram examinados por oftalmologista e considerados normais do ponto de vista oftálmico, não apresentando relato, sintomas ou sinais de disfunções visuais ou de moléstias potencialmente capazes de afetar o sistema visual. Eles tinham acuidade visual normal ou corrigida de no mínimo 20/30. O trabalho foi aprovado pela Comissão de Ética em Pesquisa do Núcleo de Medicina Tropical da UFPA e obedeceu às recomendações da Declaração de Helsinki. As funções de Gábor usadas para modulação de luminância ou cromaticidade compreenderam redes senoidais unidimensionais horizontais, moduladas na direção vertical, dentro de envelopes gaussianos bidimensionais cuja extensão espacial era medida pelo desvio padrão da gaussiana. Os estímulos foram gerados usando-se uma rotina escrita em Pascal num ambiente Delphi 7 Enterprise. Foi utilizado um microcomputador Dell Precision 390 Workstation e um gerador de estímulos CRS VSG ViSaGe para exibir os estímulos num CRT de 20”, 800 x 600 pixels, 120 Hz, padrão RGB, Mitsubishi Diamond Pro 2070SB. Nos experimentos acromáticos, os estímulos foram gerados pela modulação de luminância de uma cor branca correspondente à cromaticidade CIE1931 (x = 0,270; y = 0,280) ou CIE1976 (u’ = 0,186; v’= 0,433) e tinha luminância média de 44,5 cd/m2. Nos experimentos cromáticos, a luminância média foi mantida em 15 cd/m2 e foram usadas duas series de estímulos verde-vermelhos. Os estímulos de uma série foram formados por duas cromaticidades definidas no eixo M-L do Espaço de Cores DKL (CIE1976: verde, u’=0,131, v’=0,380; vermelho, u’=0,216, v’=0,371). Os estímulos da outra série foram formados por duas cromaticidades definidas ao longo de um eixo horizontal verde-vermelho definido no Espaço de Cores CIE1976 (verde, u’=0,150, v’=0,480; vermelho, u’=0,255, v’=0,480). Os estímulos de referência eram compostos por redes de três freqüências espaciais diferentes (0,4, 2 e 10 ciclos por grau) e envelope gaussiano com desvio padrão de 1 grau. Os estímulos de testes eram compostos por uma entre 19 freqüências espaciais diferentes em torno da freqüência espacial de referência e um entre 21 envelopes gaussianos diferentes com desvio padrão em torno de 1 grau. Na condição acromática, foram estudados quatro níveis de contraste de Michelson: 2%, 5%, 10% e 100%. Nas duas condições cromáticas foi usado o nível mais alto de contraste agregado de cones permitidos pelo gamut do monitor, 17%. O experimento consistiu numa escolha forçada de dois intervalos, cujo procedimento de testagem compreendeu a seguinte seqüência: i) apresentação de um estímulo de referência por 1 s; ii) substituição do estímulo de referência por um fundo eqüiluminante de mesma cromaticidade por 1 s; iii) apresentação do estímulo de teste também por 1 s, diferindo em relação ao estímulo de referência seja em freqüência espacial, seja em extensão espacial, com um estímulo sonoro sinalizando ao sujeito que era necessário responder se o estímulo de teste era igual ou diferente do estímulo de referência; iv) substituição do estímulo de teste pelo fundo. A extensão espacial ou a freqüência espacial do estímulo de teste foi mudada aleatoriamente de tentativa para tentativa usando o método dos estímulos constantes. Numa série de 300 tentativas, a freqüencia espacial foi variada, noutra série também de 300 tentativas, a extensão espacial foi variada, sendo que cada estímulo de teste em cada série foi apresentado pelo menos 10 vezes. A resposta do indivíduo em cada tentativa era guardada como correta ou errada para posterior construção das curvas psicométricas. Os pontos experimentais das funções psicométricas para espaço e freqüência espacial em cada nível de contraste, correspondentes aos percentuais de acertos, foram ajustados com funções gaussianas usando-se o método dos mínimos quadrados. Para cada nível de contraste, as entropias para espaço e freqüência espacial foram estimadas pelos desvios padrões dessas funções gaussianas e a entropia conjunta foi obtida multiplicando-se a raiz quadrada da entropia para espaço pela entropia para freqüência espacial. Os valores de entropia conjunta foram comparados com o mínimo teórico para sistemas lineares, 1/4π ou 0,0796. Para freqüências espaciais baixas e intermediárias, a entropia conjunta atingiu níveis abaixo do mínimo teórico em contrastes altos, sugerindo interações não lineares entre dois ou mais mecanismos visuais. Este fenômeno occorreu em todas as condições (acromática, cromática e cromática eqüiluminante) e foi mais acentuado para a frequência espacial de 0,4 ciclos / grau. Uma possível explicação para este fenômeno é a interação não linear entre as vias visuais retino-genículo-estriadas, tais como as vias K, M e P, na área visual primária ou em níveis mais altos de processamento neural.
Resumo:
O Feixe Gaussiano (FG) é uma solução assintótica da equação da elastodinâmica na vizinhança paraxial de um raio central, a qual se aproxima melhor do campo de ondas do que a aproximação de ordem zero da Teoria do Raio. A regularidade do FG na descrição do campo de ondas, assim como a sua elevada precisão em algumas regiões singulares do meio de propagação, proporciona uma forte alternativa no imageamento sísmicos. Nesta dissertação, apresenta-se um novo procedimento de migração sísmica pré-empilhamento em profundidade com amplitudes verdadeiras, que combina a flexibilidade da migração tipo Kirchhoff e a robustez da migração baseada na utilização de Feixes Gaussianos para a representação do campo de ondas. O algoritmo de migração proposto é constituído por dois processos de empilhamento: o primeiro é o empilhamento de feixes (“beam stack”) aplicado a subconjuntos de dados sísmicos multiplicados por uma função peso definida de modo que o operador de empilhamento tenha a mesma forma da integral de superposição de Feixes Gaussianos; o segundo empilhamento corresponde à migração Kirchhoff tendo como entrada os dados resultantes do primeiro empilhamento. Pelo exposto justifica-se a denominação migração Kirchhoff-Gaussian-Beam (KGB).Afim de comparar os métodos Kirchhoff e KGB com respeito à sensibilidade em relação ao comprimento da discretização, aplicamos no conjunto de dados conhecido como Marmousi 2-D quatro grids de velocidade, ou seja, 60m, 80m 100m e 150m. Como resultado, temos que ambos os métodos apresentam uma imagem muito melhor para o menor intervalo de discretização da malha de velocidade. O espectro de amplitude das seções migradas nos fornece o conteúdo de frequência espacial das seções das imagens obtidas.
Resumo:
Na maioria dos métodos de exploração geofísica, a interpretação é feita assumindo-se um modelo da Terra uniformemente estratificado. Todos os métodos de inversão, inclusive o de dados eletromagnéticos, exigem técnica de modelamento teórico de modo a auxiliar a interpretação. Na literatura os dados são geralmente interpretados em termos de uma estrutura condutiva unidimensional; comumente a Terra é assumida ser horizontalmente uniforme de modo que a condutividade é função somente da profundidade. Neste trabalho uma técnica semi-analítica de modelagem desenvolvida por Hughes (1973) foi usada para modelar a resposta magnética de duas camadas na qual a interface separando as camadas pode ser representada por uma expansão em série de Fourier. A técnica envolve um método de perturbação para encontrar o efeito de um contorno senoidal com pequenas ondulações. Como a perturbação é de primeira ordem a solução obtida é linear, podemos então usar o princípio da superposição e combinar soluções para várias senoides de forma a obter a solução para qualquer dupla camada expandida em série de Fourier. Da comparação com a técnica de elementos finitos, as seguintes conclusões podem ser tiradas: • Para um modelo de dupla camada da Terra, as camadas separadas por uma interface cuja profundidade varia senoidalmente em uma direção, as respostas eletromagnética são muito mais fortes quando a espessura da primeira camada é da ordem do skin depth da onda eletromagnética no meio, e será tanto maior quanto maior for o contraste de condutividade entre as camadas; • Por outro lado, a resistividade aparente para este modelo não é afetada pela mudança na frequência espacial (v) do contorno; • Em caso do uso da solução geral para qualquer dupla camada na Terra cuja interface possa ser desenvolvida em série de Fourier, esta técnica produziu bons resultados quando comparado com a técnica de elementos finitos. A linerização restringe a aplicação da técnica para pequenas estruturas, apesar disso, uma grande quantidade de estruturas pode ser modelada de modo simples e com tempo computacional bastante rápido; • Quando a dimensão da primeira camada possui a mesma ordem de grandeza da estrutura, esta técnica não é recomendada, porque para algumas posições de sondagem, as curvas de resistividade aparente obtidas mostram um pequeno deslocamento quando comparadas com as curvas obtidas por elementos finitos.