893 resultados para Amostragem de Gibbs


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Eukaryotic genomes display segmental patterns of variation in various properties, including GC content and degree of evolutionary conservation. DNA segmentation algorithms are aimed at identifying statistically significant boundaries between such segments. Such algorithms may provide a means of discovering new classes of functional elements in eukaryotic genomes. This paper presents a model and an algorithm for Bayesian DNA segmentation and considers the feasibility of using it to segment whole eukaryotic genomes. The algorithm is tested on a range of simulated and real DNA sequences, and the following conclusions are drawn. Firstly, the algorithm correctly identifies non-segmented sequence, and can thus be used to reject the null hypothesis of uniformity in the property of interest. Secondly, estimates of the number and locations of change-points produced by the algorithm are robust to variations in algorithm parameters and initial starting conditions and correspond to real features in the data. Thirdly, the algorithm is successfully used to segment human chromosome 1 according to GC content, thus demonstrating the feasibility of Bayesian segmentation of eukaryotic genomes. The software described in this paper is available from the author's website (www.uq.edu.au/similar to uqjkeith/) or upon request to the author.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

We report a study of the phase behavior of multiple-occupancy crystals through simulation. We argue that in order to reproduce the equilibrium behavior of such crystals it is essential to treat the number of lattice sites as a constraining thermodynamic variable. The resulting free-energy calculations thus differ considerably from schemes used for single-occupancy lattices. Using our approach, we obtain the phase diagram and the bulk modulus for a generalized exponential model that forms cluster crystals at high densities. We compare the simulation results with existing theoretical predictions. We also identify two types of density fluctuations that can lead to two sound modes and evaluate the corresponding elastic constants.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Crítica descentrada para o senso comum: MUNIZ, Euzébia Maria de Pontes Targino; DANTAS, Juliana Bulhões Alberto; ALBANO, Sebastião Guilherme (Orgs). Amostragem da reflexão acerca da comunicação contemporânea realizada na Universidade Federal do Rio Grande do Norte. Natal, RN: EDUFRN, 2012.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Crítica descentrada para o senso comum: MUNIZ, Euzébia Maria de Pontes Targino; DANTAS, Juliana Bulhões Alberto; ALBANO, Sebastião Guilherme (Orgs). Amostragem da reflexão acerca da comunicação contemporânea realizada na Universidade Federal do Rio Grande do Norte. Natal, RN: EDUFRN, 2012.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The purpose of this work is to demonstrate and to assess a simple algorithm for automatic estimation of the most salient region in an image, that have possible application in computer vision. The algorithm uses the connection between color dissimilarities in the image and the image’s most salient region. The algorithm also avoids using image priors. Pixel dissimilarity is an informal function of the distance of a specific pixel’s color to other pixels’ colors in an image. We examine the relation between pixel color dissimilarity and salient region detection on the MSRA1K image dataset. We propose a simple algorithm for salient region detection through random pixel color dissimilarity. We define dissimilarity by accumulating the distance between each pixel and a sample of n other random pixels, in the CIELAB color space. An important result is that random dissimilarity between each pixel and just another pixel (n = 1) is enough to create adequate saliency maps when combined with median filter, with competitive average performance if compared with other related methods in the saliency detection research field. The assessment was performed by means of precision-recall curves. This idea is inspired on the human attention mechanism that is able to choose few specific regions to focus on, a biological system that the computer vision community aims to emulate. We also review some of the history on this topic of selective attention.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mestrado em Engenharia Florestal e dos Recursos Naturais - Instituto Superior de Agronomia - UL

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Apresenta·se um breve resumo histórico da evolução da amostragem por transectos lineares e desenvolve·se a sua teoria. Descrevemos a teoria de amostragem por transectos lineares, proposta por Buckland (1992), sendo apresentados os pontos mais relevantes, no que diz respeito à modelação da função de detecção. Apresentamos uma descrição do princípio CDM (Rissanen, 1978) e a sua aplicação à estimação de uma função densidade por um histograma (Kontkanen e Myllymãki, 2006), procedendo à aplicação de um exemplo prático, recorrendo a uma mistura de densidades. Procedemos à sua aplicação ao cálculo do estimador da probabilidade de detecção, no caso dos transectos lineares e desta forma estimar a densidade populacional de animais. Analisamos dois casos práticos, clássicos na amostragem por distâncias, comparando os resultados obtidos. De forma a avaliar a metodologia, simulámos vários conjuntos de observações, tendo como base o exemplo das estacas, recorrendo às funções de detecção semi-normal, taxa de risco, exponencial e uniforme com um cosseno. Os resultados foram obtidos com o programa DISTANCE (Thomas et al., in press) e um algoritmo escrito em linguagem C, cedido pelo Professor Doutor Petri Kontkanen (Departamento de Ciências da Computação, Universidade de Helsínquia). Foram desenvolvidos programas de forma a calcular intervalos de confiança recorrendo à técnica bootstrap (Efron, 1978). São discutidos os resultados finais e apresentadas sugestões de desenvolvimentos futuros. ABSTRACT; We present a brief historical note on the evolution of line transect sampling and its theoretical developments. We describe line transect sampling theory as proposed by Buckland (1992), and present the most relevant issues about modeling the detection function. We present a description of the CDM principle (Rissanen, 1978) and its application to histogram density estimation (Kontkanen and Myllymãki, 2006), with a practical example, using a mixture of densities. We proceed with the application and estimate probability of detection and animal population density in the context of line transect sampling. Two classical examples from the literature are analyzed and compared. ln order to evaluate the proposed methodology, we carry out a simulation study based on a wooden stakes example, and using as detection functions half normal, hazard rate, exponential and uniform with a cosine term. The results were obtained using program DISTANCE (Thomas et al., in press), and an algorithm written in C language, kindly offered by Professor Petri Kontkanen (Department of Computer Science, University of Helsinki). We develop some programs in order to estimate confidence intervals using the bootstrap technique (Efron, 1978). Finally, the results are presented and discussed with suggestions for future developments.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O uso de tecnologias no setor florestal tem permitido dentre outras possibilidades, conhecer a real condição da floresta desempenhando o menor trabalho possível, o que garante uma maior eficiência ao se tratar, por exemplo, em tipos de amostragem no inventário florestal. A pesquisa teve como objetivo testar a eficiência da amostragem aleatória e sistemática em quatro níveis de intensidade amostral para produzir estimativas de biomassa seca acima do solo e comparar mapas de predição de biomassa com dados gerados pelo LIDAR (Light Detection and Ranging). O trabalho foi realizado em uma reserva florestal de 800 ha do Campo Experimental da Embrapa Acre. Os dados foram fornecidos pela Embrapa Acre e gerados em duas fases, a primeira por meio de um inventário 100%, no qual foi utilizado para simular a amostragem na área de estudo, sendo utilizado todas as árvores vivas com DAP > 30 cm, a segunda fase através de dados LIDAR, ou seja, utilizando o perfilhamento à Laser aerotransportado. Para simular a amostragem foram utilizados três tamanhos de parcelas distintos 20mx20m, 50mx50m e 100mx100m em diferentes intensidades amostrais que foram 0,5%, 1%, 5% e 10%. O parâmetro utilizado para comparação foi o da biomassa seca acima do solo em Mg.ha-1 pelo teste Tukey, a 95% de probabilidade através do programa Minitab17 e as parcelas foram sorteadas e distribuídas por meio de simulações de instalação de parcelas utilizando o Arc GIS 10. Os dados LIDAR foram amostrados por uma empresa contratada, a partir deles foram realizados todos os modelos e a extrapolação das métricas para toda a área através do comando gridmetrics. Os mapas de predição foram confeccionados pela ferramenta de interpolação vizinhos próximos do Arc GIS 10 e as comparações entre os mapas foram feitas pela ferramenta do Arc GIS 10, Zonal statistic. A biomassa média obtida do inventário florestal foi de 155,2 Mg.ha-1, sendo que o tamanho de parcela ótimo encontrado foi de 50mx50m e os tratamentos que mais se aproximaram da média do inventário florestal foram o aleatório com intensidade amostral de 5% e o sistemático com intensidade amostral de 10%. Os tratamentos que atenderam o erro aceitável de 10% foram à amostragem aleatória com intensidades amostrais de 5% e 10% e a amostragem sistemática com intensidade amostral de 10%. Não houve diferença estatística significativa entre os tratamentos. Os mapas de vegetação baseados na biomassa que melhor representaram a biomassa seca acima do solo no tamanho de parcela 50mx50m foram na amostragem aleatória com intensidade amostral de 10%, e na amostragem sistemática com intensidades amostrais de 5% e 10%, comparando com os mapas gerados a partir do inventário 100% e dos dados LIDAR. Pode-se concluir que o tamanho ótimo de parcela foi de 50mx50m, com intensidades amostrais acima de 5% não havendo diferença entre os métodos de amostragem e que os mapas gerados pelo inventário 100% e pelos dados LIDAR foram equivalentes.