999 resultados para Algoritmo de Delaunay
Resumo:
Zonal management in vineyards requires the prior delineation of stable yield zones within the parcel. Among the different methodologies used for zone delineation, cluster analysis of yield data from several years is one of the possibilities cited in scientific literature. However, there exist reasonable doubts concerning the cluster algorithm to be used and the number of zones that have to be delineated within a field. In this paper two different cluster algorithms have been compared (k-means and fuzzy c-means) using the grape yield data corresponding to three successive years (2002, 2003 and 2004), for a ‘Pinot Noir’ vineyard parcel. Final choice of the most recommendable algorithm has been linked to obtaining a stable pattern of spatial yield distribution and to allowing for the delineation of compact and average sized areas. The general recommendation is to use reclassified maps of two clusters or yield classes (low yield zone and high yield zone) and, consequently, the site-specific vineyard management should be based on the prior delineation of just two different zones or sub-parcels. The two tested algorithms are good options for this purpose. However, the fuzzy c-means algorithm allows for a better zoning of the parcel, forming more compact areas and with more equilibrated zonal differences over time.
Resumo:
The objective of research was to analyse the potential of Normalized Difference Vegetation Index (NDVI) maps from satellite images, yield maps and grapevine fertility and load variables to delineate zones with different wine grape properties for selective harvesting. Two vineyard blocks located in NE Spain (Cabernet Sauvignon and Syrah) were analysed. The NDVI was computed from a Quickbird-2 multi-spectral image at veraison (July 2005). Yield data was acquired by means of a yield monitor during September 2005. Other variables, such as the number of buds, number of shoots, number of wine grape clusters and weight of 100 berries were sampled in a 10 rows × 5 vines pattern and used as input variables, in combination with the NDVI, to define the clusters as alternative to yield maps. Two days prior to the harvesting, grape samples were taken. The analysed variables were probable alcoholic degree, pH of the juice, total acidity, total phenolics, colour, anthocyanins and tannins. The input variables, alone or in combination, were clustered (2 and 3 Clusters) by using the ISODATA algorithm, and an analysis of variance and a multiple rang test were performed. The results show that the zones derived from the NDVI maps are more effective to differentiate grape maturity and quality variables than the zones derived from the yield maps. The inclusion of other grapevine fertility and load variables did not improve the results.
Resumo:
En este trabajo se presenta un protocolo para la zonificación intraparcelaria de la viña con la finalidad de vendimia selectiva. Se basa en la adquisición de una imagen multiespectral detallada en el momento del envero, a partir de la cual se obtiene el índice de vegetación de la diferencia normalizada (NDVI). Este índice se clasifica en áreas de vigor alto y bajo mediante un proceso de clasificación no supervisada (algoritmo ISODATA). Las zonas resultantes se generalizan y se transfieren al monitor de cosecha de una máquina vendimiadora para realizar la recolección selectiva. La uva recolectada según este protocolo en parcelas control ha mostrado diferenciación en cuanto a parámetros de calidad como el pH, la acidez total, el contenido de polifenoles y el color. La imagen multiespectral utilizada fue adquirida por el satélite Quickbird-2. Los datos de calidad de la uva fueron muestreados según una malla regular de 5 filas por 10 cepas, procediendo a un test estadístico de rangos múltiples para analizar la separación de medias de las variables analizadas en cada zona de NDVI.
Resumo:
Objetivou-se no trabalho caracterizar uma coleção de germoplasma de maracujá, com base em descritores quantitativos equalitativos, e estimar a divergência com base na análise conjunta dos dados. Estudaram-se 22 acessos, procedentes da Coleção de maracujá da Embrapa Mandioca e Fruticultura. Foram utilizados 36 descritores morfoagronômicos, sendo 13 qualitativos e 23 quantitativos. Os dados foram analisados de forma conjunta pelo algoritmo de Gower. Adicionalmente, os acessos foram avaliados em condições de campo quanto à tolerância às doenças da parte aérea (antracnose, virose, bacteriose e verrugose) e das raízes (Fusarium). Houve variabilidade fenotípica entre os genótipos para as características morfoagronômicas estudadas, principalmente nos frutos, que mostraram diferenças acentuadas em teores de sólidos solúveis e vitamina C. O método aglomerativo utilizado foi UPGMA por ter maior coeficiente de correlação cofenética (r = 0.94**). Os acessos estudados dividiram-se em três grupos. Foi possível identificar que dentro de um mesmo grupo existe similaridade entre os acessos. Contudo, entre os grupos, pode-se inferir sobre a presença de variabilidade para os descritores utilizados, incluindo aqueles de interesse agronômico. Verificou-se que existe variabilidade genética dentro das espécies silvestres (P. suberosa e P. gibertii) e seu potencial de uso emprogramas de melhoramento genético, como fonte de vitamina C e como porta-enxertos (P. gibertii).
Resumo:
O reconhecimento e o diagnóstico diferencial dos diversos padrões da tomografia computadorizada de alta resolução (TCAR) são de fundamental importância na avaliação das doenças pulmonares difusas. Existem vários padrões de TCAR descritos na literatura, sendo alguns deles superponíveis. A interpretação desses padrões pode ser uma tarefa difícil, particularmente para residentes e radiologistas não especializados em tórax. Os autores ilustram os achados característicos da TCAR nas doenças pulmonares intersticiais crônicas e propõem um modelo simplificado de interpretação desses achados, baseado no padrão e na distribuição da doença. O algoritmo inclui os seis principais padrões de anormalidade identificados na TCAR: septal, reticular, cístico, nodular, de atenuação em vidro fosco e consolidação parenquimatosa.
Resumo:
OBJETIVO: Desenvolvimento e implementação de um programa, fundamentado no algoritmo de cálculo manual, para verificação dos cálculos de unidades monitoras em radioterapia e estabelecimento de patamares de aceitação, como mecanismo de garantia da qualidade. MATERIAIS E MÉTODOS: Os dados apresentados foram obtidos a partir dos aceleradores lineares modelo Clinac 600C e 2100C, da Varian, e o sistema de planejamento de tratamento computadorizado utilizado foi o CadPlan™. RESULTADOS: Para os feixes de 6 MV os patamares de aceitação para desvios entre os cálculos de unidades monitoras, separados por região de tratamento, foram: mama (0,0% ± 1,7%), cabeça e pescoço (1,5% ± 0,5%), hipófise (-1,7% ± 0,5%), pelve (2,1% ± 2,1%) e tórax (0,2% ± 1,3%). Para os feixes de 15 MV, o patamar sugerido para pelve em todas as técnicas de tratamento foi de (3,2% ± 1,3%). CONCLUSÃO: Os dados são suficientes para justificar seu uso na prática clínica como ferramenta no programa de garantia da qualidade.
Resumo:
OBJETIVO: Utilizar o poder de processamento da tecnologia de grades computacionais para viabilizar a utilização do algoritmo de medida de similaridade na recuperação de imagens baseada em conteúdo. MATERIAIS E MÉTODOS: A técnica de recuperação de imagens baseada em conteúdo é composta de duas etapas seqüenciais: análise de textura e algoritmo de medida de similaridade. Estas são aplicadas em imagens de joelho e cabeça, nas quais se avaliaram a eficiência em recuperar imagens do mesmo plano e a seqüência de aquisição em um banco de 2.400 imagens médicas para testar a capacidade de recuperação de imagens baseada em conteúdo. A análise de textura foi utilizada inicialmente para pré-selecionar as 1.000 imagens mais semelhantes a uma imagem de referência escolhida por um clínico. Essas 1.000 imagens foram processadas utilizando-se o algoritmo de medida de similaridade na grade computacional. RESULTADOS: A precisão encontrada na classificação por análise de textura foi de 0,54 para imagens sagitais de joelho e de 0,40 para imagens axiais de cabeça. A análise de textura foi útil como filtragem, pré-selecionando imagens a serem avaliadas pelo algoritmo de medida de similaridade. A recuperação de imagens baseada em conteúdo utilizando o algoritmo de medida de similaridade aplicado nas imagens pré-selecionadas por análise de textura resultou em precisão de 0,95 para as imagens sagitais de joelho e de 0,92 para as imagens axiais de cabeça. O alto custo computacional do algoritmo de medida de similaridade foi amortizado pela grade computacional. CONCLUSÃO: A utilização da abordagem mista das técnicas de análise de textura e algoritmo de medida de similaridade no processo de recuperação de imagens baseada em conteúdo resultou em eficiência acima de 90%. A grade computacional é indispensável para utilização do algoritmo de medida de similaridade na recuperação de imagens baseada em conteúdo, que de outra forma seria limitado a supercomputadores.
Resumo:
El objetivo del presente trabajo es evaluar las propiedades mecánicas, así como los diferentes mecanismos de fractura activados mediante ensayos de indentación instrumentada, de electrolitos basados en circona estabilizada con itria ("yttria stabilized zirconia",YSZ) y ceria dopada con gadolinia ("gadolinia doped ceria", GDC), para pilas de combustible de óxido sólido, SOFCs. Ambos materiales, con un espesor final de 200 ¿m, se conformaron mediante prensado uniaxial a 500 MPa y se sinterizaron a 1400ºC. Propiedades mecánicas tales como la dureza (H) y el módulo de Young (E) han sido estudiadas a diferentes profundidades de penetración utilizando el algoritmo de Oliver y Pharr.
Resumo:
Para garantir a confiabilidade dos dados de quantificação computadorizada do enfisema pulmonar (densitovolumetria pulmonar) na tomografia computadorizada, alguns aspectos técnicos devem ser considerados. A alteração das densidades na tomografia computadorizada com as mudanças no nível de inspiração e expiração do pulmão, com a espessura de corte da tomografia computadorizada, com o algoritmo de reconstrução e com o tipo de tomógrafo dificulta as comparações tomográficas nos estudos de acompanhamento do enfisema pulmonar. No entanto, a densitovolumetria pulmonar substituiu a avaliação visual e compete com as provas de função pulmonar como método para medir o enfisema pulmonar. Esta revisão discute as variáveis técnicas que alteram a aferição do enfisema na tomografia computadorizada e sua influência nas medições de enfisema.
Integrando ferramentas de auxílio ao diagnóstico no sistema de arquivamento e comunicação de imagens
Resumo:
OBJETIVO: Este artigo apresenta um modelo de integração de algoritmos de diagnóstico auxiliado por computador dentro do fluxo de trabalho dos sistemas de gerenciamento de imagens, desenvolvido com base em um conjunto de ferramentas computacionais de código aberto e uso livre chamado dcm4che2. MATERIAIS E MÉTODOS: O modelo de integração é composto por um servidor de processamento de imagens e por serviços de comunicação. O gerenciamento de dados segue o fluxo de trabalho definido pelo perfil de pós-processamento (PWF) do Integrating the Healthcare Enterprise (IHE) e utiliza a funcionalidade de captura secundária do DICOM. Uma aplicação para lesões difusas de pulmão foi utilizada para prova de conceito. RESULTADOS: O algoritmo de classificação de padrões apresentou acurácia de 78%, com base em um método de teste de validação cruzada. A integração possibilita a visualização das imagens processadas como uma nova série dentro do estudo original. CONCLUSÃO: O modelo de integração proposto baseiase em perfis do IHE e permite o estabelecimento de procedimentos padronizados. Os princípios utilizados para integração do fluxo de trabalho são aplicáveis para qualquer tarefa não interativa de pós-processamento de imagens.
Resumo:
El problema de la regresión simbólica consiste en el aprendizaje, a partir de un conjunto muestra de datos obtenidos experimentalmente, de una función desconocida. Los métodos evolutivos han demostrado su eficiencia en la resolución de instancias de dicho problema. En este proyecto se propone una nueva estrategia evolutiva, a través de algoritmos genéticos, basada en una nueva estructura de datos denominada Straight Line Program (SLP) y que representa en este caso expresiones simbólicas. A partir de un SLP universal, que depende de una serie de parámetros cuya especialización proporciona SLP's concretos del espacio de búsqueda, la estrategia trata de encontrar los parámetros óptimos para que el SLP universal represente la función que mejor se aproxime al conjunto de puntos muestra. De manera conceptual, este proyecto consiste en un entrenamiento genético del SLP universal, utilizando los puntos muestra como conjunto de entrenamiento, para resolver el problema de la regresión simbólica.
Resumo:
Aquest projecte tracta la implementació d’una aplicació capaç de simular el comportament d’uns individus que segueixen el seu propi algorisme en un entorn que planteja certes dificultat per a la supervivència: hi ha obstacles i fonts que proveeixen energia que els individus necessiten per existir. S’han desenvolupat les eines necessàries perquè l’usuari pugui visualitzar, recollir dades i interactuar amb l’entorn d’una forma còmoda i intuïtiva. Sobre aquesta base, s’ha implementat un videojoc que planteja reptes a l’usuari que es poden resoldre a través de l’edició dels algorismes d’un o més individus, és a dir, a través de la programació. D’aquesta manera s’introdueix a l’usuari en els principis de l’algorismia d’una forma lúdica i molt visual.
Resumo:
L'objectiu principal d'aquest projecte és dissenyar un algorisme de hashing que ens permeti, donat un conjunt d'hiperplans separadors, reduïr-ne el nombre, minimitzant la pèrdua d'eficiència en la classificació.
Resumo:
Peer-reviewed
Resumo:
This thesis deals with distance transforms which are a fundamental issue in image processing and computer vision. In this thesis, two new distance transforms for gray level images are presented. As a new application for distance transforms, they are applied to gray level image compression. The new distance transforms are both new extensions of the well known distance transform algorithm developed by Rosenfeld, Pfaltz and Lay. With some modification their algorithm which calculates a distance transform on binary images with a chosen kernel has been made to calculate a chessboard like distance transform with integer numbers (DTOCS) and a real value distance transform (EDTOCS) on gray level images. Both distance transforms, the DTOCS and EDTOCS, require only two passes over the graylevel image and are extremely simple to implement. Only two image buffers are needed: The original gray level image and the binary image which defines the region(s) of calculation. No other image buffers are needed even if more than one iteration round is performed. For large neighborhoods and complicated images the two pass distance algorithm has to be applied to the image more than once, typically 3 10 times. Different types of kernels can be adopted. It is important to notice that no other existing transform calculates the same kind of distance map as the DTOCS. All the other gray weighted distance function, GRAYMAT etc. algorithms find the minimum path joining two points by the smallest sum of gray levels or weighting the distance values directly by the gray levels in some manner. The DTOCS does not weight them that way. The DTOCS gives a weighted version of the chessboard distance map. The weights are not constant, but gray value differences of the original image. The difference between the DTOCS map and other distance transforms for gray level images is shown. The difference between the DTOCS and EDTOCS is that the EDTOCS calculates these gray level differences in a different way. It propagates local Euclidean distances inside a kernel. Analytical derivations of some results concerning the DTOCS and the EDTOCS are presented. Commonly distance transforms are used for feature extraction in pattern recognition and learning. Their use in image compression is very rare. This thesis introduces a new application area for distance transforms. Three new image compression algorithms based on the DTOCS and one based on the EDTOCS are presented. Control points, i.e. points that are considered fundamental for the reconstruction of the image, are selected from the gray level image using the DTOCS and the EDTOCS. The first group of methods select the maximas of the distance image to new control points and the second group of methods compare the DTOCS distance to binary image chessboard distance. The effect of applying threshold masks of different sizes along the threshold boundaries is studied. The time complexity of the compression algorithms is analyzed both analytically and experimentally. It is shown that the time complexity of the algorithms is independent of the number of control points, i.e. the compression ratio. Also a new morphological image decompression scheme is presented, the 8 kernels' method. Several decompressed images are presented. The best results are obtained using the Delaunay triangulation. The obtained image quality equals that of the DCT images with a 4 x 4