1000 resultados para Algoritmos computacionais


Relevância:

10.00% 10.00%

Publicador:

Resumo:

OBJETIVO: Propõe-se avaliar os perfis de dose em profundidade e as distribuições espaciais de dose para protocolos de radioterapia ocular por prótons, a partir de simulações computacionais em código nuclear e modelo de olho discretizado em voxels. MATERIAIS E MÉTODOS: As ferramentas computacionais empregadas foram o código Geant4 (GEometry ANd Tracking) Toolkit e o SISCODES (Sistema Computacional para Dosimetria em Radioterapia). O Geant4 é um pacote de software livre, utilizado para simular a passagem de partículas nucleares com carga elétrica através da matéria, pelo método de Monte Carlo. Foram executadas simulações computacionais reprodutivas de radioterapia por próton baseada em instalações pré-existentes. RESULTADOS: Os dados das simulações foram integrados ao modelo de olho através do código SISCODES, para geração das distribuições espaciais de doses. Perfis de dose em profundidade reproduzindo o pico de Bragg puro e modulado são apresentados. Importantes aspectos do planejamento radioterápico com prótons são abordados, como material absorvedor, modulação, dimensões do colimador, energia incidente do próton e produção de isodoses. CONCLUSÃO: Conclui-se que a terapia por prótons, quando adequadamente modulada e direcionada, pode reproduzir condições ideais de deposição de dose em neoplasias oculares.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

OBJETIVO: Este artigo apresenta a avaliação dosimétrica da radioterapia por íons de carbono em comparação à protonterapia. MATERIAIS E MÉTODOS: As simulações computacionais foram elaboradas no código Geant4 (GEometry ANd Tracking). Um modelo de olho discretizado em voxels implementado no sistema Siscodes (sistema computacional para dosimetria em radioterapia) foi empregado, em que perfis de dose em profundidade e curvas de isodose foram gerados e superpostos. Nas simulações com feixe de íons de carbono, distintos valores de energia do feixe foram adotados, enquanto nas simulações com feixe de prótons os dispositivos da linha de irradiação foram incluídos e diferentes espessuras do material absorvedor foram aplicadas. RESULTADOS: As saídas das simulações foram processadas e integradas ao Siscodes para gerar as distribuições espaciais de dose no modelo ocular, considerando alterações do posicionamento de entrada do feixe. Os percentuais de dose foram normalizados em função da dose máxima para um feixe em posição de entrada específica, energia da partícula incidente e número de íons de carbono e de prótons incidentes. CONCLUSÃO: Os benefícios descritos e os resultados apresentados contribuem para o desenvolvimento das aplicações clínicas e das pesquisas em radioterapia ocular por íons de carbono e prótons.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objetivo: Este artigo apresenta uma forma de se obterem estimativas de dose em pacientes submetidos a tratamentos radioterápicos a partir da análise das regiões de interesse em imagens de medicina nuclear. Materiais e Métodos: Foi desenvolvido o software denominado DoRadIo (Dosimetria das Radiações Ionizantes), que recebe as informações sobre os órgãos fontes e o órgão alvo e retorna resultados gráficos e numéricos. As imagens de medicina nuclear utilizadas foram obtidas de catálogos disponibilizados por físicos médicos. Nas simulações utilizaram-se modelos computacionais de exposição constituídos por fantomas de voxels acoplados ao código Monte Carlo EGSnrc. O software foi desenvolvido no Microsoft Visual Studio 2010 com o modelo de projeto Windows Presentation Foundation e a linguagem de programação C#. Resultados: Da aplicação das ferramentas foram obtidos: o arquivo para otimização das simulações Monte Carlo utilizando o EGSnrc, a organização e compactação dos resultados dosimétricos com todas as fontes, a seleção das regiões de interesse, a contagem da intensidade dos tons de cinza nas regiões de interesse, o arquivo das fontes ponderadas e, finalmente, todos os resultados gráficos e numéricos. Conclusão: A interface de usuários pode ser adaptada para uso em clínicas de medicina nuclear como ferramenta computacional auxiliar na estimativa da atividade administrada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A evolução tecnológica tem permitido utilizar novas abordagens no processo de ensino-aprendizagem. Os serious games se relacionam com uma categoria especial de jogos, voltados a conteúdos e finalidades específicos, nos quais o jogador utiliza seus conhecimentos para resolver problemas, conhecer novas problemáticas e treinar tarefas. Uma das tecnologias propícias à construção de serious games é a Realidade Virtual, que oferece ambientes computacionais tridimensionais com formas avançadas de interação capazes de prover maior motivação ao processo de aprendizagem. No contexto da educação médica, tais aplicações apresentam um nicho ainda pouco explorado, se observados sua relevância e impactos na sociedade. Este artigo apresenta os serious games baseados em Realidade Virtual como uma proposta para o ensino de conteúdos específicos da área médica. Para isso, categoriza-os e apresenta o que tem sido desenvolvido nos últimos anos, seus componentes, características de desenvolvimento e suas potencialidades como oportunidades de pesquisa, desenvolvimento e negócios.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As transformações da prática médica nos últimos anos - sobretudo com a incorporação de novas tecnologias da informação - apontam a necessidade de ampliar as discussões sobre o processo ensino-aprendizagem na educação médica. A utilização de novas tecnologias computacionais no ensino médico tem demonstrado inúmeras vantagens no processo de aquisição de habilidades para a identificação e a resolução de problemas, o que estimula a criatividade, o senso crítico, a curiosidade e o espírito científico. Nesse contexto, ganham destaque as Redes Neurais Artificiais (RNA) - sistemas computacionais cuja estrutura matemática é inspirada no funcionamento do cérebro humano -, as quais têm sido úteis no processo ensino-aprendizagem e na avaliação de estudantes de Medicina. Com base nessas ponderações, o escopo da presente comunicação é revisar aspectos da aplicação das RNA na educação médica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Com o emprego de adesivos pode-se obter um grande número de produtos derivados da madeira. Para confecção industrial de produtos de madeira colada, normas reconhecidas internacionalmente exigem que a adesão da madeira seja testada segundo procedimentos padronizados e que nos resultados destes testes seja reportado, além da resistência das juntas, o porcentual de falha na madeira. Para avaliação da falha a norma ASTM D5266-99 recomenda o emprego de uma rede de quadrículas traçada sobre um material transparente. Contudo, esta avaliação, além de demandar muito tempo, ainda é realizada com muita subjetividade. A hipótese do presente trabalho é que se pode quantificar a falha na madeira com um sistema de visão artificial, tornando o procedimento mais rápido e menos sujeito à subjetividade. Foram testados dois tipos de algoritmos de limiarização automática em imagens adquiridas com digitalizadores de mesa. Concluiu-se que a falha na madeira pode ser quantificada por limiarização automática em substituição ao método convencional das quadrículas. Os algoritmos testados apresentaram erro médio absoluto menor que 3% em relação ao sistema convencional da rede quadriculada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os objetivos deste trabalho foram desenvolver e testar um algoritmo genético (AG) para a solução de problemas de gerenciamento florestal com restrições de integridade. O AG foi testado em quatro problemas, contendo entre 93 e 423 variáveis de decisão, sujeitos às restrições de singularidade, produção mínima e produção máxima, periodicamente. Todos os problemas tiveram como objetivo a maximização do valor presente líquido. O AG foi codificado em ambiente delphi 5.0 e os testes foram realizados em um microcomputador AMD K6II 500 MHZ, com memória RAM de 64 MB e disco rígido de 15GB. O desempenho do AG foi avaliado de acordo com as medidas de eficácia e eficiência. Os valores ou categorias dos parâmetros do AG foram testados e comparados quanto aos seus efeitos na eficácia do algoritmo. A seleção da melhor configuração de parâmetros foi feita com o teste L&O, a 1% de probabilidade, e as análises foram realizadas através de estatísticas descritivas. A melhor configuração de parâmetros propiciou ao AG eficácia média de 94,28%, valor mínimo de 90,01%, valor máximo de 98,48%, com coeficiente de variação de 2,08% do ótimo matemático, obtido pelo algoritmo exato branch and bound. Para o problema de maior porte, a eficiência do AG foi cinco vezes superior à eficiência do algoritmo exato branch and bound. O AG apresentou-se como uma abordagem bastante atrativa para solução de importantes problemas de gerenciamento florestal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os objetivos deste trabalho foram desenvolver e testar a metaheurística SA para solução de problemas de gerenciamento florestal com restrições de integridade. O algoritmo SA desenvolvido foi testado em quatro problemas, contendo entre 93 e 423 variáveis de decisão, sujeitos às restrições de singularidade, produção mínima e produção máxima, periodicamente. Todos os problemas tiveram como objetivo a maximização do valor presente líquido. O algoritmo SA foi codificado em liguagem delphi 5.0 e os testes foram efetuados em um microcomputador AMD K6II 500 MHZ, com memória RAM de 64 MB e disco rígido de 15GB. O desempenho da SA foi avaliado de acordo com as medidas de eficácia e eficiência. Os diferentes valores ou categorias dos parâmetros da SA foram testados e comparados quanto aos seus efeitos na eficácia do algoritmo. A seleção da melhor configuração de parâmetros foi feita com o teste L&O, a 1% de probabilidade, e as análises foram realizadas através de estatísticas descritivas. A melhor configuração de parâmetros propiciou à SA eficácia média de 95,36%, valor mínimo de 83,66%, valor máximo de 100% e coeficiente de variação igual a 3,18% do ótimo matemático obtido pelo algoritmo exato branch and bound. Para o problema de maior porte, a eficiência da SA foi dez vezes superior à eficiência do algoritmo exato branch and bound. O bom desempenho desta heurística reforçou as conclusões, tiradas em outros trabalhos, do seu enorme potencial para resolver importantes problemas de gerenciamento florestal de difícil solução pelos instrumentos computacionais da atualidade.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objetivou-se, neste trabalho, propor uma sistemática para o estudo e interpretação da estabilidade dos métodos de análise de agrupamento, através de vários algoritmos de agrupamento em dados de vegetação. Utilizaram-se dados provenientes de levantamento na Mata da Silvicultura, da Universidade Federal de Viçosa ,em Viçosa, MG. Para a análise de agrupamento, foram estimadas as matrizes de distância de Mahalanobis com base nos dados originais e via reamostragem "bootstrap", bem como aplicados os métodos da ligação simples, ligação completa e médias das distâncias, do centróide, da mediana e do Ward. Para a detecção de associação entre os métodos, foi aplicado o teste Qui-Quadrado (chi2) a 1 e 5% de probabilidade. Para os diversos métodos de agrupamento foi obtida a correlação cofenética. Os resultados de associação dos métodos foram semelhantes, indicando, em princípio, que qualquer algoritmo de agrupamento estudado está estabilizado e existem, de fato, grupos entre os indivíduos observados. No entanto, verificou-se que os métodos são coincidentes, exceto os métodos do centróide e Ward e os métodos do centróide e mediana, em comparação com o de Ward, respectivamente, com base nas matrizes de Mahalanobis a partir dos dados originais e "bootstrap". A sistemática proposta é promissora para o estudo e interpretação da estabilidade dos métodos de análise de agrupamento em dados de vegetação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho teve como objetivo avaliar uma estratégia utilizada para geração de alternativas de manejo na formulação e solução de problemas de planejamento florestal com restrições de recobrimento. O problema de planejamento florestal foi formulado via modelo I e modelo II, assim denominados por Johnson E Scheurman (1977), resultando em problemas de programação linear inteira com 63 e 42 alternativas de manejo, respectivamente. Conforme esperado, no problema formulado via modelo I não houve violação das restrições de recobrimento, enquanto no problema formulado via modelo II algumas unidades de manejo foram fracionadas, fato já esperado, uma vez que essa formulação não assegura a integridade das unidades de manejo. Na formulação via modelo II, para assegurar a integridade das unidades de manejo foi necessário reformular o problema como um problema de programação não-linear inteira, problema esse de solução ainda mais complexa do que os de programação linear inteira. As soluções eficientes dos problemas de programação não-linear inteira esbarram nas limitações de eficiências dos principais algoritmos de solução exata e na carência de aplicações dos algoritmos aproximativos na solução desse tipo de problema, a exemplo das metaeurísticas simulated annealing, busca tabu e algoritmos genéticos, tornando-se, portanto, um atrativo para pesquisas nessa área.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O conhecimento da flora do Cerrado e dos fatores que influenciam a distribuição das espécies nesse bioma se faz necessário, principalmente, em razão do acelerado avanço da agricultura sob suas áreas nativas. Com o intuito de auxiliar o conhecimento da botânica, procurou-se conhecer a florística de uma área de Cerrado em Senador Modestino Gonçalves, MG, e possíveis ligações florísticas entre algumas áreas de Cerrado em Minas Gerais. Para tal, fez-se um levantamento florístico em Senador Modestino Gonçalves e uma análise de similaridade dessa comunidade com outras 27 áreas através do índice de Sfrensen. Os dendrogramas foram construídos a partir de algoritmos de médias não ponderadas (UPGMA). Foram encontradas 91 espécies distribuídas em 65 gêneros e 38 famílias. As famílias que apresentaram maior riqueza foram Leguminosae (13), Malpighiaceae (11), Myrtaceae (7), Vochysiaceae (4), Sapindaceae (4) e Rubiaceae (4). No estudo comparativo, pôde-se encontrar forte similaridade da vegetação de Cerrado no Estado de Minas Gerais, porém os grupos formados não mostraram padrões fitogeográficos. Formaram-se seis grupos que apresentaram similaridades superiores a 0,5. No entanto, não foi possível verificar quais os possíveis fatores que influenciaram a formação desses grupos, mas a proximidade geográfica e a altitude parecem influenciar fortemente alguns grupos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objetivou-se, neste trabalho, avaliar o ajuste do modelo volumétrico de Schumacher e Hall por diferentes algoritmos, bem como a aplicação de redes neurais artificiais para estimação do volume de madeira de eucalipto em função do diâmetro a 1,30 m do solo (DAP), da altura total (Ht) e do clone. Foram utilizadas 21 cubagens de povoamentos de clones de eucalipto com DAP variando de 4,5 a 28,3 cm e altura total de 6,6 a 33,8 m, num total de 862 árvores. O modelo volumétrico de Schumacher e Hall foi ajustado nas formas linear e não linear, com os seguintes algoritmos: Gauss-Newton, Quasi-Newton, Levenberg-Marquardt, Simplex, Hooke-Jeeves Pattern, Rosenbrock Pattern, Simplex, Hooke-Jeeves e Rosenbrock, utilizado simultaneamente com o método Quasi-Newton e com o princípio da Máxima Verossimilhança. Diferentes arquiteturas e modelos (Multilayer Perceptron MLP e Radial Basis Function RBF) de redes neurais artificiais foram testados, sendo selecionadas as redes que melhor representaram os dados. As estimativas dos volumes foram avaliadas por gráficos de volume estimado em função do volume observado e pelo teste estatístico L&O. Assim, conclui-se que o ajuste do modelo de Schumacher e Hall pode ser usado na sua forma linear, com boa representatividade e sem apresentar tendenciosidade; os algoritmos Gauss-Newton, Quasi-Newton e Levenberg-Marquardt mostraram-se eficientes para o ajuste do modelo volumétrico de Schumacher e Hall, e as redes neurais artificiais apresentaram boa adequação ao problema, sendo elas altamente recomendadas para realizar prognose da produção de florestas plantadas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Variáveis climáticas são essenciais para a compreensão das condições ambientais que influenciam o crescimento e o desenvolvimento vegetal. Nos últimos anos, as pesquisas que utilizam dados climáticos e técnicas de sensoriamento remoto em análises espaço-temporais da demanda por água e energia das plantas têm-se intensificado. O SEBAL (Surface Energy Balance Algorithms for Land) é um dos algoritmos mais destacados em estudos que envolvem estimativas dos fluxos de energia em grandes áreas, e pode ser aplicado com poucas medições de campo. Este trabalho, realizado no Município de Santa Bárbara, Minas Gerais, objetivou estimar os componentes do balanço de energia e, por conseguinte, a evapotranspiração em plantios de eucalipto com aplicação do algoritmo SEBAL e de imagem do sensor TM do satélite Landsat 5. As estimativas foram realizadas para cena do dia 20/06/2003. Considerando apenas as áreas referentes aos plantios de eucalipto (sete anos de idade), foram obtidos valores médios de saldo de radiação (Rn), fluxo de calor no solo (G), fluxo de calor sensível (H), fluxo de calor latente (LE) de 420,12 W m-2, 81,80 W m-2, 149,93 W m-2, 188,39 W m-2, respectivamente. Para a evapotranspiração real horária (ETr h), o valor médio obtido foi de 0,28 mm h-1. As estimativas mostraram-se condizentes com dados da literatura, no entanto pesquisas com maior controle experimental devem ser realizadas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dados de sensoriamento remoto têm sido largamente utilizados para classificação da cobertura e uso da terra, em particular graças à aquisição periódica de imagens de satélite e à generalização dos sistemas de processamento digital de imagens, que oferecem uma variedade de algoritmos de classificação de imagens. Este trabalho teve por objetivo avaliar alguns dos métodos mais comuns de classificações supervisionadas e não supervisionadas para imagens do sensor TM do satélite Landsat-5, em três áreas com diferentes padrões de paisagem em Rondônia: (1) áreas de fazendas de "Médio porte", (2) assentamentos no padrão "Espinha de peixe" e (3) áreas de contato entre floresta e "Cerrado". A comparação com um mapa de referência baseado na estatística Kappa produziu indicadores de desempenho bons ou superiores (melhores resultados - K-médias: k = 0,68; k = 0,77; k = 0,64 e MaxVer: k = 0,71; k = 0,89; k = 0,70, respectivamente nas três áreas citadas), para os algoritmos utilizados. Os resultados indicaram que a escolha de um algoritmo deve considerar tanto a capacidade de discriminar várias assinaturas espectrais em diferentes padrões de paisagem quanto a relação custo/benefício decorrente das várias etapas do trabalho dos operadores que elaboram um mapa de cobertura e uso da terra. Este trabalho apontou a necessidade de esforço mais sistemático de avaliação prévia de várias opções de execução de um projeto específico antes de se iniciar o trabalho de elaboração de um mapa de cobertura e uso da terra.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente estudo teve o objetivo de analisar, em uma lavoura sob semeadura direta, a distribuição vertical e horizontal da resistência à penetração medida por valores georreferenciados do índice de cone (IC) e a influência do teor de água do solo, permitindo a interpolação para análise de relações causa e efeito. Fatores importantes, como o teor de argila, silte, densidade, espaço poroso e teor de matéria orgânica do solo também foram mensurados. Utilizou-se de um penetrômetro hidráulico eletrônico, receptor de GPS, amostrador de solo e programas computacionais para o tratamento e obtenção dos resultados. A análise foi feita a partir dos mapas (não apresentados) para a espacialização dos atributos e pela regressão entre os dados interpolados por meio da função que apresentou o coeficiente de determinação (R²) mais elevado. Constatou-se a ocorrência de valores maiores para o IC nas profundidades compreendidas de 0,10 a 0,15 m, com menores valores em locais com maior teor de matéria orgânica, a qual coincidiu com maiores teores de argila e silte. O IC foi influenciado principalmente pelo teor de água, densidade e espaço poroso do solo.