132 resultados para Algoritmo de Prim
Resumo:
O objetivo deste trabalho foi avaliar a eficiência, na construção de mapas genéticos, dos algoritmos seriação e delineação rápida em cadeia, além dos critérios para avaliação de ordens: produto mínimo das frações de recombinação adjacentes, soma mínima das frações de recombinação adjacentes e soma máxima dos LOD Scores adjacentes, quando usados com o algoritmo de verificação de erros " ripple" . Foi simulado um mapa com 24 marcadores, posicionados aleatoriamente a distâncias variadas, com média 10 cM. Por meio do método Monte Carlo, foram obtidas 1.000 populações de retrocruzamento e 1.000 populações F2, com 200 indivíduos cada, e diferentes combinações de marcadores dominantes e co-dominantes (100% co-dominantes, 100% dominantes e mistura com 50% co-dominantes e 50% dominantes). Foi, também, simulada a perda de 25, 50 e 75% dos dados. Observou-se que os dois algoritmos avaliados tiveram desempenho semelhante e foram sensíveis à presença de dados perdidos e à presença de marcadores dominantes; esta última dificultou a obtenção de estimativas com boa acurácia, tanto da ordem quanto da distância. Além disso, observou-se que o algoritmo " ripple" geralmente aumenta o número de ordens corretas e pode ser combinado com os critérios soma mínima das frações de recombinação adjacentes e produto mínimo das frações de recombinação adjacentes.
Resumo:
O objetivo deste trabalho foi avaliar a eficiência da aplicação do modelo SEBAL em estimar os fluxos de energia em superfície e a evapotranspiração diária, numa extensa área de cultivo de arroz irrigado, no município de Paraíso do Sul, RS, tendo como parâmetros dados do sensor ASTER. As variáveis estudadas constituem importantes parâmetros do tempo e do clima em estudos agrometeorológicos e de racionalização no uso da água. As metodologias convencionais de estimativa desses parâmetros são pontuais e geralmente apresentam incertezas, que aumentam quando o interesse é o comportamento espacial desses parâmetros. Aplicou-se o algoritmo "Surface Energy Balance Algorithm for Land" (SEBAL), em uma imagem do sensor "Advanced Spaceborne Thermal Emission and Reflection Radiometer" (ASTER). As estimativas obtidas foram comparadas com medições em campo, realizadas por uma estação micrometeorológica localizada no interior da área de estudo. As estimativas mais precisas foram as de fluxo de calor sensível e de evapotranspiração diária, e a estimativa que apresentou maior erro foi a do fluxo de calor no solo. A metodologia empregada foi capaz de reproduzir os fluxos de energia em superfície de maneira satisfatória para estudos agrometeorológicos e de rendimento de culturas.
Resumo:
O objetivo deste trabalho foi avaliar variáveis discriminantes no mapeamento digital de solos com uso de redes neurais artificiais. Os atributos topográficos elevação, declividade, aspecto, plano de curvatura e índice topográfico, derivados de um modelo digital de elevação, e os índices de minerais de argila, óxido de ferro e vegetação por diferença normalizada, derivados de uma imagem do Landsat7, foram combinados e avaliados quanto à capacidade de discriminação dos solos de uma área no noroeste do Estado do Rio de Janeiro. Foram utilizados o simulador de redes neurais Java e o algoritmo de aprendizado "backpropagation". Os mapas gerados por cada um dos seis conjuntos de variáveis testados foram comparados com pontos de referência, para a determinação da exatidão das classificações. Esta comparação mostrou que o mapa produzido com a utilização de todas as variáveis obteve um desempenho superior (73,81% de concordância) ao de mapas produzidos pelos demais conjuntos de variáveis. Possíveis fontes de erro na utilização dessa abordagem estão relacionadas, principalmente, à grande heterogeneidade litológica da área, que dificultou o estabelecimento de um modelo de correlação ambiental mais realista. A abordagem utilizada pode contribuir para tornar o levantamento de solos no Brasil mais rápido e menos subjetivo.
Resumo:
O objetivo deste trabalho foi avaliar uma nova metodologia para mapeamento da cultura da soja no Estado de Mato Grosso, por meio de imagens Modis e de diferentes abordagens de classificação de imagens. Foram utilizadas imagens diárias e imagens de 16 dias. As imagens diárias foram diretamente classificadas pelo algoritmo Isoseg. As duas séries de imagens de 16 dias, referentes ao ciclo total e à metade do ciclo da cultura da soja, foram transformadas pela análise de componentes principais (ACP), antes de serem classificadas. Dados de referência, obtidos por interpretação visual de imagens do sensor TM/Landsat-5, foram utilizados para a avaliação da exatidão das classificações. Os melhores resultados foram obtidos pela classificação das imagens do ciclo total da soja, transformadas pela ACP: índice global de 0,83 e Kappa de 0,63. A melhor classificação de imagens diárias mostrou índice global de 0,80 e Kappa de 0,55. AACP aplicada às imagens do ciclo total da soja permitiu o mapeamento das áreas de soja com índices de exatidão melhores do que os obtidos pela classificação derivada das imagens de data única.
Resumo:
O objetivo deste trabalho foi avaliar parâmetros biofísicos de superfície do Bioma Pantanal com a aplicação de geotecnologias. Foram utilizados o algoritmo Sebal ("surface energy balance algorithm for land"), imagens do sensor Modis ("moderate‑resolution imaging spectroradiometer") e o mapa de classes de uso e cobertura da terra. Os resultados obtidos para NDVI, temperatura da superfície, albedo, fluxo de calor sensível diário, saldo de radiação diário e evapotranspiração real diária foram consistentes com dados de literatura para os diferentes usos e cobertura da terra, e corroboram a eficiência da capacidade analítica e sinóptica das estimativas do Sebal. Tais resultados mostram o potencial de geotecnologias na implementação de modelos ou algoritmos voltados para a compreensão da dinâmica de processos biofísicos de interação solo‑planta‑atmosfera do Pantanal.
Resumo:
O objetivo deste trabalho foi avaliar a exatidão do cálculo da obstrução do horizonte, a partir de um modelo digital de elevação (MDE), em diferentes situações topográficas. O material utilizado incluiu um MDE disponível para a região da Serra Gaúcha, RS, receptores GPS, câmera digital, lente grande‑angular e os programas Idrisi, Arcview/ArcGIS e Solar Analyst. Foram adquiridas fotografias hemisféricas, e coletadas as coordenadas de 16 locais na área de estudo. As coordenadas e o MDE foram utilizados para calcular a obstrução do horizonte com uso do algoritmo Solar Analyst. Foram comparadas a fração aberta do céu calculada e a obtida pelas fotografias hemisféricas. O coeficiente de determinação foi de 0,8428, tendo-se observado superestimativa média de 5,53% da fração aberta do céu. Os erros são atribuídos principalmente à obstrução pela vegetação, que não pode ser identificada pelo MDE. A obstrução do horizonte, causada pelo relevo na Serra Gaúcha, pode ser calculada satisfatoriamente pelo Solar Analyst, a partir de um MDE interpolado de cartas topográficas na escala 1:50.000.
Resumo:
O objetivo deste trabalho foi propor um novo algoritmo de imputação múltipla livre de distribuição, por meio de modificações no método de imputação simples recentemente desenvolvido por Yan para contornar o problema de desbalanceamento de experimentos. O método utiliza a decomposição por valores singulares de uma matriz e foi testado por meio de simulações baseadas em duas matrizes de dados reais completos, provenientes de ensaios com eucalipto e cana-de-açúcar, com retiradas aleatórias de valores em diferentes percentagens. A qualidade das imputações foi avaliada por uma medida de acurácia geral que combina a variância entre imputações e o viés quadrático médio delas em relação aos valores retirados. A melhor alternativa para imputação múltipla é um modelo multiplicativo que inclui pesos próximos a 1 para os autovalores calculados com a decomposição. A metodologia proposta não depende de pressuposições distribucionais ou estruturais e não tem restrições quanto ao padrão ou ao mecanismo de ausência dos dados.
Resumo:
Objetivou-se no trabalho caracterizar uma coleção de germoplasma de maracujá, com base em descritores quantitativos equalitativos, e estimar a divergência com base na análise conjunta dos dados. Estudaram-se 22 acessos, procedentes da Coleção de maracujá da Embrapa Mandioca e Fruticultura. Foram utilizados 36 descritores morfoagronômicos, sendo 13 qualitativos e 23 quantitativos. Os dados foram analisados de forma conjunta pelo algoritmo de Gower. Adicionalmente, os acessos foram avaliados em condições de campo quanto à tolerância às doenças da parte aérea (antracnose, virose, bacteriose e verrugose) e das raízes (Fusarium). Houve variabilidade fenotípica entre os genótipos para as características morfoagronômicas estudadas, principalmente nos frutos, que mostraram diferenças acentuadas em teores de sólidos solúveis e vitamina C. O método aglomerativo utilizado foi UPGMA por ter maior coeficiente de correlação cofenética (r = 0.94**). Os acessos estudados dividiram-se em três grupos. Foi possível identificar que dentro de um mesmo grupo existe similaridade entre os acessos. Contudo, entre os grupos, pode-se inferir sobre a presença de variabilidade para os descritores utilizados, incluindo aqueles de interesse agronômico. Verificou-se que existe variabilidade genética dentro das espécies silvestres (P. suberosa e P. gibertii) e seu potencial de uso emprogramas de melhoramento genético, como fonte de vitamina C e como porta-enxertos (P. gibertii).
Resumo:
O reconhecimento e o diagnóstico diferencial dos diversos padrões da tomografia computadorizada de alta resolução (TCAR) são de fundamental importância na avaliação das doenças pulmonares difusas. Existem vários padrões de TCAR descritos na literatura, sendo alguns deles superponíveis. A interpretação desses padrões pode ser uma tarefa difícil, particularmente para residentes e radiologistas não especializados em tórax. Os autores ilustram os achados característicos da TCAR nas doenças pulmonares intersticiais crônicas e propõem um modelo simplificado de interpretação desses achados, baseado no padrão e na distribuição da doença. O algoritmo inclui os seis principais padrões de anormalidade identificados na TCAR: septal, reticular, cístico, nodular, de atenuação em vidro fosco e consolidação parenquimatosa.
Resumo:
OBJETIVO: Desenvolvimento e implementação de um programa, fundamentado no algoritmo de cálculo manual, para verificação dos cálculos de unidades monitoras em radioterapia e estabelecimento de patamares de aceitação, como mecanismo de garantia da qualidade. MATERIAIS E MÉTODOS: Os dados apresentados foram obtidos a partir dos aceleradores lineares modelo Clinac 600C e 2100C, da Varian, e o sistema de planejamento de tratamento computadorizado utilizado foi o CadPlan™. RESULTADOS: Para os feixes de 6 MV os patamares de aceitação para desvios entre os cálculos de unidades monitoras, separados por região de tratamento, foram: mama (0,0% ± 1,7%), cabeça e pescoço (1,5% ± 0,5%), hipófise (-1,7% ± 0,5%), pelve (2,1% ± 2,1%) e tórax (0,2% ± 1,3%). Para os feixes de 15 MV, o patamar sugerido para pelve em todas as técnicas de tratamento foi de (3,2% ± 1,3%). CONCLUSÃO: Os dados são suficientes para justificar seu uso na prática clínica como ferramenta no programa de garantia da qualidade.
Resumo:
OBJETIVO: Utilizar o poder de processamento da tecnologia de grades computacionais para viabilizar a utilização do algoritmo de medida de similaridade na recuperação de imagens baseada em conteúdo. MATERIAIS E MÉTODOS: A técnica de recuperação de imagens baseada em conteúdo é composta de duas etapas seqüenciais: análise de textura e algoritmo de medida de similaridade. Estas são aplicadas em imagens de joelho e cabeça, nas quais se avaliaram a eficiência em recuperar imagens do mesmo plano e a seqüência de aquisição em um banco de 2.400 imagens médicas para testar a capacidade de recuperação de imagens baseada em conteúdo. A análise de textura foi utilizada inicialmente para pré-selecionar as 1.000 imagens mais semelhantes a uma imagem de referência escolhida por um clínico. Essas 1.000 imagens foram processadas utilizando-se o algoritmo de medida de similaridade na grade computacional. RESULTADOS: A precisão encontrada na classificação por análise de textura foi de 0,54 para imagens sagitais de joelho e de 0,40 para imagens axiais de cabeça. A análise de textura foi útil como filtragem, pré-selecionando imagens a serem avaliadas pelo algoritmo de medida de similaridade. A recuperação de imagens baseada em conteúdo utilizando o algoritmo de medida de similaridade aplicado nas imagens pré-selecionadas por análise de textura resultou em precisão de 0,95 para as imagens sagitais de joelho e de 0,92 para as imagens axiais de cabeça. O alto custo computacional do algoritmo de medida de similaridade foi amortizado pela grade computacional. CONCLUSÃO: A utilização da abordagem mista das técnicas de análise de textura e algoritmo de medida de similaridade no processo de recuperação de imagens baseada em conteúdo resultou em eficiência acima de 90%. A grade computacional é indispensável para utilização do algoritmo de medida de similaridade na recuperação de imagens baseada em conteúdo, que de outra forma seria limitado a supercomputadores.
Resumo:
Para garantir a confiabilidade dos dados de quantificação computadorizada do enfisema pulmonar (densitovolumetria pulmonar) na tomografia computadorizada, alguns aspectos técnicos devem ser considerados. A alteração das densidades na tomografia computadorizada com as mudanças no nível de inspiração e expiração do pulmão, com a espessura de corte da tomografia computadorizada, com o algoritmo de reconstrução e com o tipo de tomógrafo dificulta as comparações tomográficas nos estudos de acompanhamento do enfisema pulmonar. No entanto, a densitovolumetria pulmonar substituiu a avaliação visual e compete com as provas de função pulmonar como método para medir o enfisema pulmonar. Esta revisão discute as variáveis técnicas que alteram a aferição do enfisema na tomografia computadorizada e sua influência nas medições de enfisema.
Integrando ferramentas de auxílio ao diagnóstico no sistema de arquivamento e comunicação de imagens
Resumo:
OBJETIVO: Este artigo apresenta um modelo de integração de algoritmos de diagnóstico auxiliado por computador dentro do fluxo de trabalho dos sistemas de gerenciamento de imagens, desenvolvido com base em um conjunto de ferramentas computacionais de código aberto e uso livre chamado dcm4che2. MATERIAIS E MÉTODOS: O modelo de integração é composto por um servidor de processamento de imagens e por serviços de comunicação. O gerenciamento de dados segue o fluxo de trabalho definido pelo perfil de pós-processamento (PWF) do Integrating the Healthcare Enterprise (IHE) e utiliza a funcionalidade de captura secundária do DICOM. Uma aplicação para lesões difusas de pulmão foi utilizada para prova de conceito. RESULTADOS: O algoritmo de classificação de padrões apresentou acurácia de 78%, com base em um método de teste de validação cruzada. A integração possibilita a visualização das imagens processadas como uma nova série dentro do estudo original. CONCLUSÃO: O modelo de integração proposto baseiase em perfis do IHE e permite o estabelecimento de procedimentos padronizados. Os princípios utilizados para integração do fluxo de trabalho são aplicáveis para qualquer tarefa não interativa de pós-processamento de imagens.
Resumo:
Objetivo: Determinar taxas de definição diagnóstica e complicações da biópsia percutânea guiada por tomografia computadorizada (TC) de lesões ósseas suspeitas de malignidade. Materiais e Métodos: Estudo retrospectivo que incluiu 186 casos de biópsia percutânea guiada por TC de lesões ósseas no período de janeiro de 2010 a dezembro de 2012. Todas as amostras foram obtidas usando agulhas de 8 a 10 gauge. Foram coletados dados demográficos, história de neoplasia maligna prévia, dados relacionados à lesão, ao procedimento e ao resultado histológico. Resultados: A maioria dos pacientes era do sexo feminino (57%) e a idade média foi 53,0 ± 16,4 anos. Em 139 casos (74,6%) a suspeita diagnóstica era metástase e os tumores primários mais comuns foram de mama (32,1%) e próstata (11,8%). Os ossos mais envolvidos foram coluna vertebral (36,0%), bacia (32,8%) e ossos longos (18,3%). Houve complicações em apenas três pacientes (1,6%), incluindo uma fratura, um caso de parestesia com comprometimento funcional e uma quebra da agulha necessitando remoção cirúrgica. Amostras de 183 lesões (98,4%) foram consideradas adequadas para diagnóstico. Resultados malignos foram mais frequentes nos pacientes com suspeita de lesão secundária e história de neoplasia maligna conhecida (p < 0,001) e nos procedimentos orientados pela PET/CT (p = 0,011). Conclusão: A biópsia percutânea guiada por TC é segura e eficaz no diagnóstico de lesões ósseas suspeitas.
Resumo:
A maioria dos tumores hepáticos primários malignos é representada pelo carcinoma hepatocelular e pelo colangiocarcinoma, entretanto, uma variedade de outras lesões hepáticas incomuns pode ser encontrada. Lesões comuns como o hemangioma, a hiperplasia nodular focal e as metástases são bem conhecidas e já foram extensamente documentadas na literatura. O diagnóstico das lesões hepáticas típicas pode ser feito com alguma segurança utilizando-se os diversos métodos de imagem; por outro lado, as lesões incomuns são geralmente um desafio diagnóstico para o radiologista. Nesta primeira parte do estudo abordaremos cinco tumores hepáticos incomuns - o angiossarcoma, o angiomiolipoma, o cistoadenoma/carcinoma biliar, o hemangioendotelioma epitelioide e o carcinoma hepatocelular fibrolamelar -, suas principais características e achados de imagem, com foco na tomografia computadorizada e na ressonância magnética.