1000 resultados para Algoritmo evolucionário


Relevância:

10.00% 10.00%

Publicador:

Resumo:

OBJETIVO: Desenvolvimento e implementação de um programa, fundamentado no algoritmo de cálculo manual, para verificação dos cálculos de unidades monitoras em radioterapia e estabelecimento de patamares de aceitação, como mecanismo de garantia da qualidade. MATERIAIS E MÉTODOS: Os dados apresentados foram obtidos a partir dos aceleradores lineares modelo Clinac 600C e 2100C, da Varian, e o sistema de planejamento de tratamento computadorizado utilizado foi o CadPlan™. RESULTADOS: Para os feixes de 6 MV os patamares de aceitação para desvios entre os cálculos de unidades monitoras, separados por região de tratamento, foram: mama (0,0% ± 1,7%), cabeça e pescoço (1,5% ± 0,5%), hipófise (-1,7% ± 0,5%), pelve (2,1% ± 2,1%) e tórax (0,2% ± 1,3%). Para os feixes de 15 MV, o patamar sugerido para pelve em todas as técnicas de tratamento foi de (3,2% ± 1,3%). CONCLUSÃO: Os dados são suficientes para justificar seu uso na prática clínica como ferramenta no programa de garantia da qualidade.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

OBJETIVO: Utilizar o poder de processamento da tecnologia de grades computacionais para viabilizar a utilização do algoritmo de medida de similaridade na recuperação de imagens baseada em conteúdo. MATERIAIS E MÉTODOS: A técnica de recuperação de imagens baseada em conteúdo é composta de duas etapas seqüenciais: análise de textura e algoritmo de medida de similaridade. Estas são aplicadas em imagens de joelho e cabeça, nas quais se avaliaram a eficiência em recuperar imagens do mesmo plano e a seqüência de aquisição em um banco de 2.400 imagens médicas para testar a capacidade de recuperação de imagens baseada em conteúdo. A análise de textura foi utilizada inicialmente para pré-selecionar as 1.000 imagens mais semelhantes a uma imagem de referência escolhida por um clínico. Essas 1.000 imagens foram processadas utilizando-se o algoritmo de medida de similaridade na grade computacional. RESULTADOS: A precisão encontrada na classificação por análise de textura foi de 0,54 para imagens sagitais de joelho e de 0,40 para imagens axiais de cabeça. A análise de textura foi útil como filtragem, pré-selecionando imagens a serem avaliadas pelo algoritmo de medida de similaridade. A recuperação de imagens baseada em conteúdo utilizando o algoritmo de medida de similaridade aplicado nas imagens pré-selecionadas por análise de textura resultou em precisão de 0,95 para as imagens sagitais de joelho e de 0,92 para as imagens axiais de cabeça. O alto custo computacional do algoritmo de medida de similaridade foi amortizado pela grade computacional. CONCLUSÃO: A utilização da abordagem mista das técnicas de análise de textura e algoritmo de medida de similaridade no processo de recuperação de imagens baseada em conteúdo resultou em eficiência acima de 90%. A grade computacional é indispensável para utilização do algoritmo de medida de similaridade na recuperação de imagens baseada em conteúdo, que de outra forma seria limitado a supercomputadores.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo del presente trabajo es evaluar las propiedades mecánicas, así como los diferentes mecanismos de fractura activados mediante ensayos de indentación instrumentada, de electrolitos basados en circona estabilizada con itria ("yttria stabilized zirconia",YSZ) y ceria dopada con gadolinia ("gadolinia doped ceria", GDC), para pilas de combustible de óxido sólido, SOFCs. Ambos materiales, con un espesor final de 200 ¿m, se conformaron mediante prensado uniaxial a 500 MPa y se sinterizaron a 1400ºC. Propiedades mecánicas tales como la dureza (H) y el módulo de Young (E) han sido estudiadas a diferentes profundidades de penetración utilizando el algoritmo de Oliver y Pharr.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Para garantir a confiabilidade dos dados de quantificação computadorizada do enfisema pulmonar (densitovolumetria pulmonar) na tomografia computadorizada, alguns aspectos técnicos devem ser considerados. A alteração das densidades na tomografia computadorizada com as mudanças no nível de inspiração e expiração do pulmão, com a espessura de corte da tomografia computadorizada, com o algoritmo de reconstrução e com o tipo de tomógrafo dificulta as comparações tomográficas nos estudos de acompanhamento do enfisema pulmonar. No entanto, a densitovolumetria pulmonar substituiu a avaliação visual e compete com as provas de função pulmonar como método para medir o enfisema pulmonar. Esta revisão discute as variáveis técnicas que alteram a aferição do enfisema na tomografia computadorizada e sua influência nas medições de enfisema.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

OBJETIVO: Este artigo apresenta um modelo de integração de algoritmos de diagnóstico auxiliado por computador dentro do fluxo de trabalho dos sistemas de gerenciamento de imagens, desenvolvido com base em um conjunto de ferramentas computacionais de código aberto e uso livre chamado dcm4che2. MATERIAIS E MÉTODOS: O modelo de integração é composto por um servidor de processamento de imagens e por serviços de comunicação. O gerenciamento de dados segue o fluxo de trabalho definido pelo perfil de pós-processamento (PWF) do Integrating the Healthcare Enterprise (IHE) e utiliza a funcionalidade de captura secundária do DICOM. Uma aplicação para lesões difusas de pulmão foi utilizada para prova de conceito. RESULTADOS: O algoritmo de classificação de padrões apresentou acurácia de 78%, com base em um método de teste de validação cruzada. A integração possibilita a visualização das imagens processadas como uma nova série dentro do estudo original. CONCLUSÃO: O modelo de integração proposto baseiase em perfis do IHE e permite o estabelecimento de procedimentos padronizados. Os princípios utilizados para integração do fluxo de trabalho são aplicáveis para qualquer tarefa não interativa de pós-processamento de imagens.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El problema de la regresión simbólica consiste en el aprendizaje, a partir de un conjunto muestra de datos obtenidos experimentalmente, de una función desconocida. Los métodos evolutivos han demostrado su eficiencia en la resolución de instancias de dicho problema. En este proyecto se propone una nueva estrategia evolutiva, a través de algoritmos genéticos, basada en una nueva estructura de datos denominada Straight Line Program (SLP) y que representa en este caso expresiones simbólicas. A partir de un SLP universal, que depende de una serie de parámetros cuya especialización proporciona SLP's concretos del espacio de búsqueda, la estrategia trata de encontrar los parámetros óptimos para que el SLP universal represente la función que mejor se aproxime al conjunto de puntos muestra. De manera conceptual, este proyecto consiste en un entrenamiento genético del SLP universal, utilizando los puntos muestra como conjunto de entrenamiento, para resolver el problema de la regresión simbólica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Aquest projecte tracta la implementació d’una aplicació capaç de simular el comportament d’uns individus que segueixen el seu propi algorisme en un entorn que planteja certes dificultat per a la supervivència: hi ha obstacles i fonts que proveeixen energia que els individus necessiten per existir. S’han desenvolupat les eines necessàries perquè l’usuari pugui visualitzar, recollir dades i interactuar amb l’entorn d’una forma còmoda i intuïtiva. Sobre aquesta base, s’ha implementat un videojoc que planteja reptes a l’usuari que es poden resoldre a través de l’edició dels algorismes d’un o més individus, és a dir, a través de la programació. D’aquesta manera s’introdueix a l’usuari en els principis de l’algorismia d’una forma lúdica i molt visual.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'objectiu principal d'aquest projecte és dissenyar un algorisme de hashing que ens permeti, donat un conjunt d'hiperplans separadors, reduïr-ne el nombre, minimitzant la pèrdua d'eficiència en la classificació.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Peer-reviewed

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Imagens do sensor TM/Landsat-5 referentes às bandas de TM1 a TM5 e TM7 do município de Altamira-PA, Brasil, da passagem de 20/7/1991, modificadas para 60, 100, 120, 200 e 250 m, foram utilizadas para avaliar a influência da resolução espacial na identificação de floresta, capoeira nova, capoeira madura e não-floresta. Mapas temáticos (um para cada resolução espacial) foram elaborados, considerando a aplicação de um algoritmo de classificação digital Bhattacharya (supervisionado), seguido da interpretação visual. A área de cada uma dessas categorias foi determinada em cada um dos mapas temáticos, tomando as imagens com 30 m de resolução espacial como referência. A exatidão de mapeamento foi avaliada, utilizando a exatidão global, o índice kappa e o índice Tau. Verificou-se que: a) as maiores discrepâncias em termos quantitativos ocorreram nos mapas gerados a partir das imagens com 200 m de resolução espacial; b) as categorias que dominavam a cena em termos espectrais e espaciais aumentaram à medida que a resolução espacial foi degradada; c) os mapas elaborados a partir de imagens com resolução espacial de 200 m apresentaram ligeira confusão na identificação dos temas; e d) a confusão espectral entre os temas não apresentou tendência linear com a gradativa degradação da resolução espectral.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho teve como objetivos desenvolver e testar um algoritmo com base na metaheurística busca tabu (BT), para a solução de problemas de gerenciamento florestal com restrições de inteireza. Os problemas avaliados tinham entre 93 e 423 variáveis de decisão, sujeitos às restrições de singularidade, produção mínima e produção máxima periódicas. Todos os problemas tiveram como objetivo a maximização do valor presente líquido. O algoritmo para implementação da BT foi codificado em ambiente delphi 5.0 e os testes foram efetuados em um microcomputador AMD K6II 500 MHZ, com memória RAM de 64 MB e disco rígido de 15GB. O desempenho da BT foi avaliado de acordo com as medidas de eficácia e eficiência. Os diferentes valores ou categorias dos parâmetros da BT foram testados e comparados quanto aos seus efeitos na eficácia do algoritmo. A seleção da melhor configuração de parâmetros foi feita com o teste L&O, a 1% de probabilidade, e as análises através de estatísticas descritivas. A melhor configuração de parâmetros propiciou à BT eficácia média de 95,97%, valor mínimo igual a 90,39% e valor máximo igual a 98,84%, com um coeficiente de variação de 2,48% do ótimo matemático. Para o problema de maior porte, a eficiência da BT foi duas vezes superior à eficiência do algoritmo exato branch and bound, apresentando-se como uma abordagem muito atrativa para solução de importantes problemas de gerenciamento florestal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

No presente trabalho descreve-se uma metodologia de otimização do corte ou traçamento de árvores para obtenção de multiprodutos em nível de fustes individuais. A geração dos padrões ótimos de corte foi realizada através de dois módulos: 1) um algoritmo heurístico que identifica os cortes potenciais (números úteis), que devem ser avaliados ao longo do fuste; e 2) um algoritmo com base na programação dinâmica (PD), que determina a combinação ótima de toras de cada tipo de comprimento a serem retiradas do fuste, visando maximizar o seu comprimento utilizado. Um exemplo da obtenção dos padrões ótimos de corte para um conjunto de 25 fustes é apresentado. O traçamento ótimo e o traçamento real obtido pelo motosserrista foram comparados. O resíduo de madeira deixado na floresta foi reduzido de 16 para 5% através dos padrões de corte ótimos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os objetivos deste trabalho foram desenvolver e testar a metaheurística SA para solução de problemas de gerenciamento florestal com restrições de integridade. O algoritmo SA desenvolvido foi testado em quatro problemas, contendo entre 93 e 423 variáveis de decisão, sujeitos às restrições de singularidade, produção mínima e produção máxima, periodicamente. Todos os problemas tiveram como objetivo a maximização do valor presente líquido. O algoritmo SA foi codificado em liguagem delphi 5.0 e os testes foram efetuados em um microcomputador AMD K6II 500 MHZ, com memória RAM de 64 MB e disco rígido de 15GB. O desempenho da SA foi avaliado de acordo com as medidas de eficácia e eficiência. Os diferentes valores ou categorias dos parâmetros da SA foram testados e comparados quanto aos seus efeitos na eficácia do algoritmo. A seleção da melhor configuração de parâmetros foi feita com o teste L&O, a 1% de probabilidade, e as análises foram realizadas através de estatísticas descritivas. A melhor configuração de parâmetros propiciou à SA eficácia média de 95,36%, valor mínimo de 83,66%, valor máximo de 100% e coeficiente de variação igual a 3,18% do ótimo matemático obtido pelo algoritmo exato branch and bound. Para o problema de maior porte, a eficiência da SA foi dez vezes superior à eficiência do algoritmo exato branch and bound. O bom desempenho desta heurística reforçou as conclusões, tiradas em outros trabalhos, do seu enorme potencial para resolver importantes problemas de gerenciamento florestal de difícil solução pelos instrumentos computacionais da atualidade.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objetivou-se, neste trabalho, propor uma sistemática para o estudo e interpretação da estabilidade dos métodos de análise de agrupamento, através de vários algoritmos de agrupamento em dados de vegetação. Utilizaram-se dados provenientes de levantamento na Mata da Silvicultura, da Universidade Federal de Viçosa ,em Viçosa, MG. Para a análise de agrupamento, foram estimadas as matrizes de distância de Mahalanobis com base nos dados originais e via reamostragem "bootstrap", bem como aplicados os métodos da ligação simples, ligação completa e médias das distâncias, do centróide, da mediana e do Ward. Para a detecção de associação entre os métodos, foi aplicado o teste Qui-Quadrado (chi2) a 1 e 5% de probabilidade. Para os diversos métodos de agrupamento foi obtida a correlação cofenética. Os resultados de associação dos métodos foram semelhantes, indicando, em princípio, que qualquer algoritmo de agrupamento estudado está estabilizado e existem, de fato, grupos entre os indivíduos observados. No entanto, verificou-se que os métodos são coincidentes, exceto os métodos do centróide e Ward e os métodos do centróide e mediana, em comparação com o de Ward, respectivamente, com base nas matrizes de Mahalanobis a partir dos dados originais e "bootstrap". A sistemática proposta é promissora para o estudo e interpretação da estabilidade dos métodos de análise de agrupamento em dados de vegetação.