42 resultados para Algoritmos computacionales

em Scielo Saúde Pública - SP


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este artigo avalia os diferentes impactos de variáveis relevantes na descoberta e na difusão de tecnologias, em mercados de alta competitividade. O objetivo foi identificar possibilidades de convívio de diferentes grupos estratégicos, associados ao uso ou à produção de tecnologias convencionais ou inovadoras. Foi utilizado um método matemático de busca e otimização, inspirado nos mecanismos da genética e na evolução de população de seres vivos. Os resultados obtidos sugerem que a interação entre empresas inovadoras pode, simultaneamente, permitir um aprimoramento da tecnologia e criar obstáculos para a entrada de novos competidores. Apesar de ser uma simplificação que não permite incorporar toda a complexidade do mercado, o modelo possibilita uma investigação dos comportamentos corporativos e de evolução de estratégias tecnológicas, principalmente em situações em que é difícil levantar dados empíricos ou em que casos específicos não permitem generalizações de evidências.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A definição das parcelas familiares em projetos de reforma agrária envolve questões técnicas e sociais. Essas questões estão associadas principalmente às diferentes aptidões agrícolas do solo nestes projetos. O objetivo deste trabalho foi apresentar método para realizar o processo de ordenamento territorial em assentamentos de reforma agrária empregando Algoritmo Genético (AG). O AG foi testado no Projeto de Assentamento Veredas, em Minas Gerais, e implementado com base no sistema de aptidão agrícola das terras.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Se presenta una aplicación basada en técnicas de estado-finito a los procesos de unificación de términos en español. Los algoritmos de unificación, o conflación, de términos son procedimientos computacionales utilizados en algunos sistemas de Recuperación de Información (RI) para la reducción de variantes de términos, semánticamente equivalentes, a una forma normalizada. Los programas que realizan habitualmente este proceso se denominan: stemmers y lematizadores. El objetivo de este trabajo es evaluar el grado de deficiencias y errores de los lematizadores en el proceso de agrupación de los términos a su correspondiente radical. El método utilizado para la construcción del lematizador se ha basado en la implementación de una herramienta lingüística que permite construir diccionarios electrónicos representados internamente en Transductores de Estado-Finito. Los recursos léxicos desarrollados se han aplicado a un corpus de verificación para evaluar el funcionamiento de este tipo de analizadores léxicos. La métrica de evaluación utilizada ha sido una adaptación de las medidas de cobertura y precisión. Los resultados muestran que la principal limitación del proceso de unificación de variantes de término por medio de tecnología de estado-finito es el infra-análisis.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo deste trabalho foi avaliar a eficiência, na construção de mapas genéticos, dos algoritmos seriação e delineação rápida em cadeia, além dos critérios para avaliação de ordens: produto mínimo das frações de recombinação adjacentes, soma mínima das frações de recombinação adjacentes e soma máxima dos LOD Scores adjacentes, quando usados com o algoritmo de verificação de erros " ripple" . Foi simulado um mapa com 24 marcadores, posicionados aleatoriamente a distâncias variadas, com média 10 cM. Por meio do método Monte Carlo, foram obtidas 1.000 populações de retrocruzamento e 1.000 populações F2, com 200 indivíduos cada, e diferentes combinações de marcadores dominantes e co-dominantes (100% co-dominantes, 100% dominantes e mistura com 50% co-dominantes e 50% dominantes). Foi, também, simulada a perda de 25, 50 e 75% dos dados. Observou-se que os dois algoritmos avaliados tiveram desempenho semelhante e foram sensíveis à presença de dados perdidos e à presença de marcadores dominantes; esta última dificultou a obtenção de estimativas com boa acurácia, tanto da ordem quanto da distância. Além disso, observou-se que o algoritmo " ripple" geralmente aumenta o número de ordens corretas e pode ser combinado com os critérios soma mínima das frações de recombinação adjacentes e produto mínimo das frações de recombinação adjacentes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

OBJETIVO: Selecionar os melhores algoritmos para o exame de coluna lombar na avaliação de artrodese com material metálico. MATERIAIS E MÉTODOS: Utilizou-se um equipamento de tomografia computadorizada de 16 fileiras de detectores. Imagens de dez pacientes foram reconstruídas com filtros 20, 40, 60 e 80 e realizadas reformatações em três dimensões e multiplanares com espessuras de 2 mm e 4 mm. Um total de 320 imagens foi avaliado por três experientes radiologistas, que deram notas de 1 a 5 (1 = não-aceitável; 2 = abaixo dos padrões; 3 = aceitável; 4 = acima da média; 5 = excelente). Além disso, foram realizadas medidas de ruído para correlação com o tipo de filtro utilizado. RESULTADOS: As médias do valor de ruído para reconstrução com 2 mm e filtros 20, 40, 60 e 80 foram de 24,7 ± 4,3; 35,5 ± 4,2; 106,0 ± 18,5 e 145,9 ± 26,9, respectivamente, e para 4 mm foram de 18,1 ± 2,4; 25,1 ± 4,6; 76,7 ± 17,2 e 106,6 ± 23,4. CONCLUSÃO: As imagens coloridas em três dimensões são mais bem visualizadas com filtro 20, entretanto, nas imagens em tons de cinza um filtro intermediário de 40 ou 60 pode ser útil para demonstrar os parafusos com maior detalhe. Para reconstruções multiplanares com espessura de 2 mm o filtro 40 é mais bem aceito, e para uma espessura de 4 mm um filtro 60 apresentou melhor qualidade.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Genetic algorithm was used for variable selection in simultaneous determination of mixtures of glucose, maltose and fructose by mid infrared spectroscopy. Different models, using partial least squares (PLS) and multiple linear regression (MLR) with and without data pre-processing, were used. Based on the results obtained, it was verified that a simpler model (multiple linear regression with variable selection by genetic algorithm) produces results comparable to more complex methods (partial least squares). The relative errors obtained for the best model was around 3% for the sugar determination, which is acceptable for this kind of determination.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

No presente trabalho descreve-se uma metodologia de otimização do corte ou traçamento de árvores para obtenção de multiprodutos em nível de fustes individuais. A geração dos padrões ótimos de corte foi realizada através de dois módulos: 1) um algoritmo heurístico que identifica os cortes potenciais (números úteis), que devem ser avaliados ao longo do fuste; e 2) um algoritmo com base na programação dinâmica (PD), que determina a combinação ótima de toras de cada tipo de comprimento a serem retiradas do fuste, visando maximizar o seu comprimento utilizado. Um exemplo da obtenção dos padrões ótimos de corte para um conjunto de 25 fustes é apresentado. O traçamento ótimo e o traçamento real obtido pelo motosserrista foram comparados. O resíduo de madeira deixado na floresta foi reduzido de 16 para 5% através dos padrões de corte ótimos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Modelos matemáticos computacionais de otimização de redes de irrigação, sob vazão em marcha, capazes de fornecer dados hidráulicos, são importantes para a verificação do comportamento do sistema quanto à distribuição da carga hidráulica (energia) e da pressão nas tubulações da rede. Este trabalho teve como objetivo estudar a distribuição da carga efetiva e hidráulica da unidade operacional de uma rede de irrigação localizada otimizada por algoritmos genéticos. As variáveis de decisão para otimização, com auxílio de algoritmos genéticos, foram os diâmetros de cada trecho da rede: dois para linhas laterais, quatro para linhas de derivação, quatro para linhas secundárias e um para a linha principal. Foi desenvolvido um código em linguagem MatLab, considerando todas as perdas de energia distribuídas e localizadas entre o início da rede e o conjunto motobomba. A análise de sensibilidade realizada foi baseada na variação, na declividade do terreno (0; 2,5 e 5%). Os resultados mostram que, para as tubulações com vazão em marcha, quando se aumenta a declividade do terreno, ocorre ganho de energia no início da tubulação, que vai perdendo-se de maneira gradual, e diminuição da pressão no início da tubulação, que aumenta gradualmente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As infecções cervicais profundas são afecções graves que acometem os diversos espaços do pescoço. A mais temível complicação é a mediastinite necrosante descendente, que necessita de diagnóstico precoce e tratamento, por vezes, agressivo. OBJETIVOS: Analisar os 80 casos tratados de infecção cervical profunda e propor uma diretriz de conduta. MATERIAL E MÉTODO: Os autores realizaram um estudo retrospectivo de 80 casos de infecções cervicais profundas tratados no período de junho de 1997 a junho de 2003. RESULTADOS: As causas odontogênicas e amigdalianas foram as mais comumente encontradas. Os espaços mais acometidos foram o submandibular e parafaríngeo. Os principais microorganismos envolvidos foram o Staphylococcus aureus e o Streptococcus sp. CONCLUSÃO: O manejo da via aérea difícil nas infecções cervicais profundas deve ter cuidado especial, quando da indicação cirúrgica, de preferência com intubação sob visão endoscópica e sem uso de miorrelaxantes. Drenagem cirúrgica ampla permanece o tratamento padrão das infecções cervicais profundas. A tomografia computadorizada é o exame de escolha para o diagnóstico das infecções cervicais profundas. Essas infecções apresentam alta morbimortalidade, quando associada ao choque séptico e à mediastinite. Nossa mortalidade foi de 11,2% e dos cinco doentes com mediastinite apenas um sobreviveu.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho é uma atualização do artigo publicado pelo autor na RAE em 1974 e tem por finalidade: a) definir o Problema da Decisão Qualitativa (PDQ); b) mostrar como certos tipos de problemas lógicos podem ser formulados como PDQs; c) apresentar um método de resolução do PDQ, o qual utiliza resolução de equações booleanas; d) apresentar um processo original de resolução destas equações, o Algoritmo RQ, facilmente programável em computadores. Os resultados apresentados são produto de trabalhos desenvolvidos no antigo Departamento de Engenharia de Eletricidade da EPUSP, os quais deram origem a diversas publicações, entre elas 1, 4, 5, 6, 7, 8, 9, 10, 11,20,23, 24, 25, 28,29 (veja bibliografia no final do artigo). Partes deste artigo são adaptações de trechos de livro do mesmo autor(11), onde se encontram os fundamentos teóricos, aplicações, sugestões para novos desenvolvimentos e listagens para microcomputador do SDB/3, um sistema de auxílio à tomada de decisões que resolve o PDQ.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RESUMO Este estudo tem por propósito comparar conceitual e metodologicamente cinco classificadores para a estratificação socioeconômica da sociedade brasileira e mensurar os trade-offs de erros de classificação entre eles. Com base nos algoritmos de classificação de cada critério, classificamos os 55.970 domicílios que compõem a amostra representativa da pesquisa de orçamentos familiares (POF), realizada pelo Instituto Brasileiro de Geografia e Estatística (IBGE). Os resultados obtidos permitem afirmar que o classificador de máxima verossimilhança foi o que apresentou a melhor performance em explicar o nível de consumo das famílias brasileiras por estrato socioeconômico, seguido do classificador bayesiano adaptável, da Associação Brasileira de Empresas de Pesquisa (ABEP) simplificado, do ABEP antigo e da Secretaria de Assuntos Estratégicos (SAE). Os três primeiros classificadores estão sustentados no conceito da renda permanente/riqueza do domicílio, incorporando os dois primeiros uma importante inovação: classificar um domicílio levando em conta sua localização geográfica e a composição familiar. Esses novos classificadores possibilitam aos pesquisadores e gestores de marketing segmentar e estudar mercados baseados em critério válido, fidedigno e confiável de estratificação socioeconômica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

São analisados itens do documento "Draft Declaration of Commitment for the UNGASS on HIV/AIDS, 2001". Discute-se a experiência brasileira em novos métodos de testagem e aconselhamento para populações vulneráveis, métodos preventivos controlados por mulheres, prevenção, suporte psicossocial a pessoas vivendo com HIV/Aids e transmissão materno-infantil. Os itens foram operacionalizados sob a forma de "palavras-chave" em buscas sistemáticas nos bancos de dados padrão em biomedicina, incluindo ainda o Web of Science, nas suas subdivisões referentes às ciências naturais e sociais. A experiência brasileira referente a estratégias de testagem e aconselhamento vem-se consolidando, no emprego de algoritmos visando à estimação da incidência e identificação de recém-infectados, testagem e aconselhamento de grávidas, e aplicação de testes rápidos. A introdução de métodos alternativos e de novas tecnologias para coleta de dados em populações vulneráveis vem permitindo ágil monitoramento da epidemia. A avaliação do suporte psicossocial a pessoas vivendo com HIV/Aids ganhou impulso no Brasil, provavelmente, em decorrência do aumento da sobrevida e da qualidade de vida dessas pessoas. Foram observados avanços substanciais no controle da transmissão materno-infantil, uma das mais importantes vitórias no campo de HIV/Aids no Brasil, mas deficiências no atendimento pré-natal ainda constituem um desafio. Em relação aos métodos de prevenção femininos, a resposta brasileira é ainda tímida. A ampla implementação de novas tecnologias para captura e manejo de dados depende de investimentos em infra-estrutura e capacitação profissional.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

OBJETIVO: Estimar valores de referência e função de hierarquia de docentes em Saúde Coletiva do Brasil por meio de análise da distribuição do índice h. MÉTODOS: A partir do portal da Coordenação de Aperfeiçoamento de Pessoal de Nível Superior, 934 docentes foram identificados em 2008, dos quais 819 foram analisados. O índice h de cada docente foi obtido na Web of Science mediante algoritmos de busca com controle para homonímias e alternativas de grafia de nome. Para cada região e para o Brasil como um todo ajustou-se função densidade de probabilidade exponencial aos parâmetros média e taxa de decréscimo por região. Foram identificadas medidas de posição e, com o complemento da função probabilidade acumulada, função de hierarquia entre autores conforme o índice h por região. RESULTADOS: Dos docentes, 29,8% não tinham qualquer registro de citação (h = 0). A média de h para o País foi 3,1, com maior média na região Sul (4,7). A mediana de h para o País foi 2,1, também com maior mediana na Sul (3,2). Para uma padronização de população de autores em cem, os primeiros colocados para o País devem ter h = 16; na estratificação por região, a primeira posição demanda valores mais altos no Nordeste, Sudeste e Sul, sendo nesta última h = 24. CONCLUSÕES: Avaliados pelos índices h da Web of Science, a maioria dos autores em Saúde Coletiva não supera h = 5. Há diferenças entres as regiões, com melhor desempenho para a Sul e valores semelhantes entre Sudeste e Nordeste.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A ocupação e consolidação do território na Amazônia apresentam diferentes características relacionadas à dinâmica das conversões de uso e cobertura da terra, que podem ser analisadas utilizando imagens orbitais de sensoriamento remoto. O objetivo do presente trabalho foi avaliar os produtos de detecção de mudanças gerados por análise de vetor de mudança (AVM) e subtração de imagens, a partir de imagens-fração derivadas das imagens ópticas TM/Landsat, para o estudo das conversões de uso e cobertura da terra presentes em área de colonização agrícola na região sudeste de Roraima. Analisaram-se as imagens de mudança provenientes da aplicação do AVM (magnitude, alfa e beta) e da subtração das imagens-fração (solo, sombra e vegetação) quanto à sua capacidade de identificar e discriminar as conversões existentes, de acordo com levantamento de campo. Foram testados dois algoritmos de classificação de imagens do tipo supervisionado, Bhattacharyya e Support Vector Machine. Foram feitos agrupamentos para otimizar a identificação das conversões nas classificações testadas. Houve melhor desempenho do classificador por regiões Bhattacharyya na discriminação das conversões. A utilização das imagens-diferença das frações como informação de entrada para o classificador apresentou qualidade de classificação muito boa ou excelente, sendo superior às classificações utilizando os produtos AVM, isoladamente ou em conjunto com as imagens-diferença.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A estimulação ventricular direita convencional pode estar associada a efeitos deletérios sobre a função cardíaca. A necessidade de uma estimulação cardíaca artificial mais fisiológica é, indiscutivelmente, um dos pontos mais importantes na área da eletroterapia cardíaca. Os algoritmos de programação para a manutenção da condução atrioventricular própria, a estimulação de sítios endocárdicos alternativos e a terapia de ressincronização cardíaca são utilizados com o intuito de alcançar este objetivo. A estimulação do feixe de His e a estimulação septal têm sido estudadas como sítios endocárdicos alternativos para o posicionamento do eletrodo no ventrículo direito. A estimulação septal representa uma alternativa simples, prática e sem custos adicionais e com potenciais benefícios na redução dos efeitos deletérios da estimulação do ventrículo direito. Entretanto, esse sítio alternativo envolve um grupo heterogêneo de pacientes e apresenta resultados conflitantes quanto ao seu benefício clínico a longo prazo. Este artigo faz uma revisão das evidências científicas sobre os sítios alternativos de estimulação ventricular direita, com ênfase na segurança do procedimento, na medida dos parâmetros eletrofisiológicos, na avaliação da função ventricular esquerda e no acompanhamento clínico dos pacientes.