42 resultados para Algoritmos computacionales
Resumo:
FUNDAMENTO: Estados congestivos podem ser identificados e manejados através de algoritmos como o Diuretic Treatment Algorithm (DTA) para ajuste de diurético por telefone, com enfoque na avaliação clínica. Porém, o DTA está disponível somente em língua inglesa. OBJETIVO: Adaptar o DTA e testar sua aplicabilidade para uso no Brasil em pacientes ambulatoriais com IC. MÉTODOS: Seguiram-se as etapas de tradução, síntese, retrotradução, avaliação por comitê de especialistas e pré-teste (aplicabilidade clínica por meio de ensaio clínico randomizado). O DTA foi denominado, na versão para o Brasil, algoritmo de ajuste de diurético (AAD). Os pacientes foram randomizados para grupo intervenção (GI) - ajuste de diurético conforme o AAD - ou grupo controle (GC) - ajuste convencional. Foi avaliado o escore clínico de congestão (ECC) e o peso para ambos os grupos. RESULTADOS: Foram realizadas 12 modificações no DTA. Incluíram-se 34 pacientes. Para aqueles congestos, o aumento de diurético guiado pelo AAD resultou em maior resolução da congestão, com redução de dois pontos no ECC para 50% da amostra -2 (-3,5; -1,0), enquanto a mediana para o GC foi 0 (-1,25; -1,0), (p < 0,001). A mediana de variação de peso foi maior no GI -1,4 (-1,7; -0,5) quando comparado ao GC 0,1 (1,2; -0,6), p = 0,001. CONCLUSÕES: O ADD mostrou-se aplicável na prática clínica após adaptação e parece resultar em melhor controle da congestão em pacientes com IC. A efetividade clínica da ferramenta merece ser testada em amostra maior de pacientes visando sua validação para uso no Brasil (Universal Trial Number: U1111-1130-5749) (Arq Bras Cardiol. 2013; [online]. ahead print, PP.0-0).
Resumo:
Fundamento: O custo-efetividade é um fator de crescente importância na escolha de um exame ou terapêutica. Objetivo: Avaliar o custo-efetividade de vários métodos habitualmente empregados no diagnóstico de doença coronária estável em Portugal. Métodos: Foram avaliadas sete estratégias diagnósticas. O custo-efetividade de cada estratégia foi definido como o custo por cada diagnóstico correto (inclusão ou exclusão de doença arterial coronária obstrutiva) num doente sintomático. Os custos e a eficácia de cada método foram avaliados por meio de inferência bayesiana e análise de árvores de decisão, fazendo variar a probabilidade pré-teste entre 10 e 90%. Resultados: O custo-efetividade das várias estratégias diagnósticas é fortemente dependente da probabilidade pré-teste. Em doentes com probabilidade pré-teste ≤ 50%, os algoritmos diagnósticos, que incluem a angiotomografia computadorizada cardíaca são os mais custo-efetivos. Nesses doentes, dependendo da probabilidade pré-teste e da disponibilidade para pagar por diagnóstico correto adicional, a angiotomografia computadorizada pode ser usada como teste de primeira linha ou ser reservada a doentes com teste ergométrico positivo/inconclusivo ou escore de cálcio > 0. Em doentes com probabilidade pré-teste ≥ 60%, o envio direto para angiografia coronária invasiva parece ser a estratégia mais custo-efetiva. Conclusão: Os algoritmos diagnósticos, que incluem a angiotomografia computadorizada cardíaca, são os mais custo-efetivos em doentes sintomáticos com suspeita de doença arterial coronária estável e probabilidade pré-teste ≤ 50%. Em doentes de risco mais elevado (probabilidade pré-teste ≥ 60%), o envio direto para coronariografia invasiva parece ser a estratégia mais custo-efetiva. Em todas as probabilidades pré-teste, as estratégias baseadas em testes de isquemia parecem ser mais onerosas e menos eficazes que aquelas baseadas em testes anatômicos.
Resumo:
O objetivo deste trabalho foi determinar a aptidão agrícola das terras para cultura do milho em sistema de produção tecnificado, a partir de dados extraídos de levantamento de solos em escala 1:50.000 e da estimativa do risco climático, usando um sistema de informações geográficas. A área de estudo foi a bacia hidrográfica do rio Jardim, no Distrito Federal. Utilizou-se um modelo de balanço hídrico para simular o risco climático para a cultura do milho (Zea mays L.), considerando nove datas de plantio. Foram definidos valores quantitativos para cada um das propriedades condicionadoras da produtividade do milho em áreas de cerrado e, por meio de algoritmos de lógica booleana estabelecidos com base em critérios definidos em tabelas-guia previamente elaboradas, foram realizados cruzamentos consecutivos que permitiram a elaboração de mapas de aptidão agrícola das terras para a cultura do milho, com cinco classes, que evidenciaram a variação temporal da aptidão. Constatou-se que 66,5 % da área total não apresentou limitações físicas, 96% das terras foram restritas em fertilidade e o período de menor risco climático foi de 11 a 20/10.
Resumo:
En este trabajo se presenta una introducción a los patrones de enlace, brindados por la estructura de red de la World Wide Web, como una nueva fuente de información para la recuperación de información efectiva y eficiente. Se describen sus características y tres tipos de algoritmos de ordenación por relevancia basados en el análisis de conectividad.
Resumo:
As redes de pesquisa impulsionam a criação do conhecimento e o processo de inovação resultantes do intercâmbio de informações e, sobretudo, da junção de competências de grupos que unem esforços na busca de metas comuns. Este artigo apresenta breve histórico dos estudos relativos às redes de colaboração científica, sua evolução cronológica e as principais abordagens de estudo. Discute-se particularmente como as análises de redes de pesquisa podem ser revisitadas à luz das possibilidades recentes surgidas com as novas Tecnologias de Informação e de Comunicação (TICs). Para tal, apresentam-se exemplos de sistemas de conhecimento no âmbito da Plataforma Lattes: Egressos, Colaboradores e Redes-GP. Esses sistemas permitem executar, com grandes volumes de dados, análises de redes por meio de algoritmos descritos na literatura, bem como criar novas formas de análise possibilitadas pelas TICs.
Resumo:
Com a evolução da tecnologia da informação e a disseminação de documentos digitais na Web, faz-se necessário criar meios que forneçam um mecanismo de organização de tais documentos, facilitando sua busca e recuperação. Em bibliotecas digitais ou repositórios de obras eletrônicas, por exemplo, existe a necessidade de uma ferramenta que possa classificar automaticamente os documentos, visto que o processo de classificação (categorização) é feito de forma manual. Esta ferramenta será de grande importância no apoio à catalogação. Este artigo apresenta o desenvolvimento de uma ferramenta que tem como objetivo principal classificar automaticamente documentos digitais em categorias preestabelecidas, nas quais cada documento pertencerá a uma ou mais categorias de acordo com seu conteúdo, tornando assim mais eficaz e rápida a classificação. Na elaboração da ferramenta foram utilizadas técnicas e algoritmos de mineração de textos, sendo definidas no estudo de caso algumas categorias e termos relacionados, tais como informática, direito e física, para validar a ferramenta.
Resumo:
O objetivo deste trabalho foi avaliar a adequação do uso do sensor AVHRR/NOAA (Advanced Very High Resolution Radiometer/National Oceanic and Atmospheric Administration) para mapeamento da temperatura da superfície terrestre (TST) no Estado do Rio Grande do Sul, por meio da comparação entre três algoritmos clássicos. Foram comparados os métodos de Becker & Li, Sobrino et al. e Kerr et al. para estimativa das TST mínimas, utilizando imagens noturnas e logo após o amanhecer. Os dados de emissividade e TST foram obtidos por meio de combinações matemáticas da radiação detectada nas faixas do visível, infravermelho próximo e termal do sensor AVHRR/NOAA. O sensor AVHRR é adequado para o mapeamento de TST para as condições do tipo de cobertura do solo que predominam no Rio Grande do Sul, visto que a TST estimada pelos três métodos testados foi próxima à temperatura do ar medida nos locais selecionados. O método de Sobrino et al. foi o mais adequado.
Resumo:
O objetivo deste trabalho foi realizar uma análise bayesiana de modelos auto-regressivos de ordem p, AR(p), para dados em painel referentes às diferenças esperadas nas progênies (DEP) de touros da raça Nelore publicados de 2000 a 2006. Neste trabalho, adotou-se o modelo AR(2), indicado pela análise prévia da função de autocorrelação parcial. As comparações entre as prioris, realizadas por meio do Fator de Bayes e do Pseudo-Fator de Bayes, indicaram superioridade da priori independente t-Student multivariada - Gama inversa em relação à priori hierárquica Normal multivariada - Gama inversa e a priori de Jeffreys. Os resultados indicam a importância de se dividir os animais em grupos homogêneos de acordo com a acurácia. Constatou-se também que, em média, a eficiência de previsão dos valores de DEP para um ano futuro foi próxima de 80%.
Resumo:
O objetivo deste trabalho foi estimar correlações genéticas e fenotípicas de características reprodutivas e ponderais em 579 touros Nelore, em criação extensiva. As características reprodutivas estudadas foram: circunferência escrotal, consistência, volume e forma testiculares, comprimento dos testículos esquerdo e direito, largura dos testículos esquerdo e direito, motilidade e vigor espermáticos, defeitos espermáticos maiores, menores e totais e classificação andrológica por pontos. As características foram analisadas pelo método de máxima verossimilhança restrita, com algoritmos livres de derivadas, sob modelo animal, com inclusão da matriz de numeradores dos coeficientes de parentesco entre os animais e seus ascendentes. As correlações genéticas entre circunferência escrotal e as características peso corporal, volume testicular, motilidade espermática, vigor espermático, defeitos espermáticos menores, defeitos espermáticos totais e classificação andrológica por pontos foram, respectivamente, 0,72, 0,99, 0,72, 0,60, -0,67, -0,12 e 0,64. As maiores correlações fenotípicas encontradas entre peso e circunferência escrotal, características físicas e morfológicas do sêmen, quando comparadas às correlações entre idade e as mesmas características, são indicativas de que o peso tem maior influência na condição reprodutiva. As correlações genéticas entre classificação andrológica por pontos e as características: peso, circunferência escrotal, volume testicular, defeitos espermáticos maiores e defeitos espermáticos totais foram, respectivamente, 0,19, 0,64, 0,71, -0,47 e -0,58.
Resumo:
O objetivo deste trabalho foi avaliar a consistência do padrão de agrupamento de cultivares de feijão (Phaseolus vulgaris L.), obtido a partir da combinação de oito medidas de dissimilaridade e oito métodos de agrupamento. Treze cultivares de feijão foram avaliadas em nove experimentos conduzidos entre os anos agrícolas de 2000/2001 e 2004/2005, e agrupadas de acordo com caracteres de produção (produtividade de grãos, número de vagens por planta), de fenologia (número de dias da emergência ao florescimento e da emergência à colheita) e de morfologia (altura de inserção da primeira e da última vagem). Foram realizadas análises de variância, de correlação, de diagnóstico de multicolinearidade, de agrupamento e de comparação de médias. A consistência do padrão de agrupamento foi avaliada por meio do coeficiente de correlação cofenética. Há variabilidade na consistência do padrão de agrupamento das cultivares de feijão, obtido a partir da combinação de diferentes medidas de dissimilaridade e métodos de agrupamento. Maior consistência nos padrões de agrupamento de cultivares de feijão é verificada com o método da ligação média entre grupo, obtido a partir da matriz de distância euclidiana.
Resumo:
O objetivo deste trabalho foi avaliar parâmetros biofísicos de superfície do Bioma Pantanal com a aplicação de geotecnologias. Foram utilizados o algoritmo Sebal ("surface energy balance algorithm for land"), imagens do sensor Modis ("moderate‑resolution imaging spectroradiometer") e o mapa de classes de uso e cobertura da terra. Os resultados obtidos para NDVI, temperatura da superfície, albedo, fluxo de calor sensível diário, saldo de radiação diário e evapotranspiração real diária foram consistentes com dados de literatura para os diferentes usos e cobertura da terra, e corroboram a eficiência da capacidade analítica e sinóptica das estimativas do Sebal. Tais resultados mostram o potencial de geotecnologias na implementação de modelos ou algoritmos voltados para a compreensão da dinâmica de processos biofísicos de interação solo‑planta‑atmosfera do Pantanal.
Resumo:
O objetivo deste trabalho foi utilizar a classificação orientada a objetos em imagens TM/ Landsat‑5, para caracterizar classes de uso e cobertura da terra, na região do Médio Araguaia. A cena 223/068, adquirida em 5/9/2010, foi submetida a correção radiométrica, atmosférica e geométrica, como etapas de pré‑processamento. Em seguida, foram geradas duas imagens por meio das matemáticas de bandas espectrais do índice de vegetação por diferença normalizada (NDVI) e do índice de água por diferença normalizada modificado (MNDWI), utilizados na classificação de imagens. Para a segmentação destas, utilizaram-se os parâmetros de escala 250, 200, 150, 100, 50, os algoritmos "assign class" e "nearest neighbor", e os descritores de média, área e relação de borda. Foi empregada matriz de confusão, para avaliar a acurácia da classificação, por meio do coeficiente de exatidão global e do índice de concordância Kappa. A exatidão global para o mapeamento foi de 83,3%, com coeficiente Kappa de 0,72. A classificação foi feita quanto às fitofisionomias do Cerrado, ao uso antrópico e urbano da terra, a corpos d'água e a bancos de areia. As matemáticas de bandas espectrais utilizadas apresentam resultados promissores no delineamento das classes de cobertura da terra no Araguaia.
Resumo:
Este trabalho propõe um método de projeto de embalagem para produtos hortícolas, buscando uma otimização integrada dos aspectos geométricos, estruturais e térmicos, ligados à facilitação do resfriamento e armazenamento refrigerado. Para o dimensionamento e otimização estrutural, foi utilizado o Método dos Elementos Finitos implementado pelo programa ANSYS, obtendo-se oito modelos virtuais de embalagens, com 10% e 14% de área efetiva de aberturas e geometria quadrada, retangular e circular. Para o desenvolvimento dos experimentos, que avaliaram a relação da área de aberturas com o tempo de sete-oitavos de resfriamento, foram construídos protótipos de tábuas de madeira (Pinnus elliotti) de reflorestamento. Nas embalagens, foram acondicionados aproximadamente 13 kg de banana variedade Nanica (Musa cavendishii, cultivar nanica), resfriada num túnel de ar forçado (vazão de ar de 0,32 m³ s-1, temperatura de 8,0±1,2ºC e umidade relativa de 84,5±2,6%). O tempo de resfriamento também foi comparado com aquele obtido quando a mesma quantidade de frutas foi resfriada em embalagens de papelão (2,5% de área efetiva de abertura) e madeira (18% de área efetiva de abertura). Os resultados demonstraram que, entre os protótipos propostos, não houve diferença significativa no tempo de resfriamento dos frutos acondicionados nas embalagens desenvolvidas, sendo o tempo médio de resfriamento de 40,71±2,81 min. Na comparação com as embalagens de papelão e madeira, houve diferenças significativas, sendo que as embalagens comerciais tiveram tempos de resfriamento de 1,25 e 2 vezes maiores. Concluiu-se que a simulação estrutural computacional, aliada a algoritmos de otimização, além de procedimentos experimentais ligados à cadeia do frio, são recursos promissores no auxílio de projetos para embalagens de transporte de produtos hortícolas.
Resumo:
OBJETIVO: Utilizar o código PENELOPE e desenvolver geometrias onde estão presentes heterogeneidades para simular o comportamento do feixe de fótons nessas condições. MATERIAIS E MÉTODOS: Foram feitas simulações do comportamento da radiação ionizante para o caso homogêneo, apenas água, e para os casos heterogêneos, com diferentes materiais. Consideraram-se geometrias cúbicas para os fantomas e geometrias em forma de paralelepípedos para as heterogeneidades com a seguinte composição: tecido simulador de osso e pulmão, seguindo recomendações da International Commission on Radiological Protection, e titânio, alumínio e prata. Definiram-se, como parâmetros de entrada: a energia e o tipo de partícula da fonte, 6 MV de fótons; a distância fonte-superfície de 100 cm; e o campo de radiação de 10x 10 cm². RESULTADOS: Obtiveram-se curvas de percentual de dose em profundidade para todos os casos. Observou-se que em materiais com densidade eletrônica alta, como a prata, a dose absorvida é maior em relação à dose absorvida no fantoma homogêneo, enquanto no tecido simulador de pulmão a dose é menor. CONCLUSÃO: Os resultados obtidos demonstram a importância de se considerar heterogeneidades nos algoritmos dos sistemas de planejamento usados no cálculo da distribuição de dose nos pacientes, evitando-se sub ou superdosagem dos tecidos próximos às heterogeneidades.
Integrando ferramentas de auxílio ao diagnóstico no sistema de arquivamento e comunicação de imagens
Resumo:
OBJETIVO: Este artigo apresenta um modelo de integração de algoritmos de diagnóstico auxiliado por computador dentro do fluxo de trabalho dos sistemas de gerenciamento de imagens, desenvolvido com base em um conjunto de ferramentas computacionais de código aberto e uso livre chamado dcm4che2. MATERIAIS E MÉTODOS: O modelo de integração é composto por um servidor de processamento de imagens e por serviços de comunicação. O gerenciamento de dados segue o fluxo de trabalho definido pelo perfil de pós-processamento (PWF) do Integrating the Healthcare Enterprise (IHE) e utiliza a funcionalidade de captura secundária do DICOM. Uma aplicação para lesões difusas de pulmão foi utilizada para prova de conceito. RESULTADOS: O algoritmo de classificação de padrões apresentou acurácia de 78%, com base em um método de teste de validação cruzada. A integração possibilita a visualização das imagens processadas como uma nova série dentro do estudo original. CONCLUSÃO: O modelo de integração proposto baseiase em perfis do IHE e permite o estabelecimento de procedimentos padronizados. Os princípios utilizados para integração do fluxo de trabalho são aplicáveis para qualquer tarefa não interativa de pós-processamento de imagens.