1000 resultados para Algoritmos computacionais


Relevância:

20.00% 20.00%

Publicador:

Resumo:

O problema de otimização de mínimos quadrados e apresentado como uma classe importante de problemas de minimização sem restrições. A importância dessa classe de problemas deriva das bem conhecidas aplicações a estimação de parâmetros no contexto das analises de regressão e de resolução de sistemas de equações não lineares. Apresenta-se uma revisão dos métodos de otimização de mínimos quadrados lineares e de algumas técnicas conhecidas de linearização. Faz-se um estudo dos principais métodos de gradiente usados para problemas não lineares gerais: Métodos de Newton e suas modificações incluindo os métodos Quasi-Newton mais usados (DFP e BFGS). Introduzem-se depois métodos específicos de gradiente para problemas de mínimos quadrados: Gauss-Newton e Levenberg-Larquardt. Apresenta-se uma variedade de exemplos selecionados na literatura para testar os diferentes métodos usando rotinas MATLAB. Faz-se uma an alise comparativa dos algoritmos baseados nesses ensaios computacionais que exibem as vantagens e desvantagens dos diferentes métodos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A definição das parcelas familiares em projetos de reforma agrária envolve questões técnicas e sociais. Essas questões estão associadas principalmente às diferentes aptidões agrícolas do solo nestes projetos. O objetivo deste trabalho foi apresentar método para realizar o processo de ordenamento territorial em assentamentos de reforma agrária empregando Algoritmo Genético (AG). O AG foi testado no Projeto de Assentamento Veredas, em Minas Gerais, e implementado com base no sistema de aptidão agrícola das terras.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo deste trabalho foi avaliar a eficiência, na construção de mapas genéticos, dos algoritmos seriação e delineação rápida em cadeia, além dos critérios para avaliação de ordens: produto mínimo das frações de recombinação adjacentes, soma mínima das frações de recombinação adjacentes e soma máxima dos LOD Scores adjacentes, quando usados com o algoritmo de verificação de erros " ripple" . Foi simulado um mapa com 24 marcadores, posicionados aleatoriamente a distâncias variadas, com média 10 cM. Por meio do método Monte Carlo, foram obtidas 1.000 populações de retrocruzamento e 1.000 populações F2, com 200 indivíduos cada, e diferentes combinações de marcadores dominantes e co-dominantes (100% co-dominantes, 100% dominantes e mistura com 50% co-dominantes e 50% dominantes). Foi, também, simulada a perda de 25, 50 e 75% dos dados. Observou-se que os dois algoritmos avaliados tiveram desempenho semelhante e foram sensíveis à presença de dados perdidos e à presença de marcadores dominantes; esta última dificultou a obtenção de estimativas com boa acurácia, tanto da ordem quanto da distância. Além disso, observou-se que o algoritmo " ripple" geralmente aumenta o número de ordens corretas e pode ser combinado com os critérios soma mínima das frações de recombinação adjacentes e produto mínimo das frações de recombinação adjacentes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Peer-reviewed

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El objetivo de estos programas es crear una herramienta que nos permita, de una manera fácil, entender mejor la separación de fuentes y la deconvolución de canal . Por eso se presenta el diseño, mediante Java, de una página web [1]: http//www.uvic.es/projectes/SeparationSources con carácter marcadamente didáctico para el estudio y evaluación de diferentes algoritmos propuestos en la bibliografía.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

OBJETIVO: Selecionar os melhores algoritmos para o exame de coluna lombar na avaliação de artrodese com material metálico. MATERIAIS E MÉTODOS: Utilizou-se um equipamento de tomografia computadorizada de 16 fileiras de detectores. Imagens de dez pacientes foram reconstruídas com filtros 20, 40, 60 e 80 e realizadas reformatações em três dimensões e multiplanares com espessuras de 2 mm e 4 mm. Um total de 320 imagens foi avaliado por três experientes radiologistas, que deram notas de 1 a 5 (1 = não-aceitável; 2 = abaixo dos padrões; 3 = aceitável; 4 = acima da média; 5 = excelente). Além disso, foram realizadas medidas de ruído para correlação com o tipo de filtro utilizado. RESULTADOS: As médias do valor de ruído para reconstrução com 2 mm e filtros 20, 40, 60 e 80 foram de 24,7 ± 4,3; 35,5 ± 4,2; 106,0 ± 18,5 e 145,9 ± 26,9, respectivamente, e para 4 mm foram de 18,1 ± 2,4; 25,1 ± 4,6; 76,7 ± 17,2 e 106,6 ± 23,4. CONCLUSÃO: As imagens coloridas em três dimensões são mais bem visualizadas com filtro 20, entretanto, nas imagens em tons de cinza um filtro intermediário de 40 ou 60 pode ser útil para demonstrar os parafusos com maior detalhe. Para reconstruções multiplanares com espessura de 2 mm o filtro 40 é mais bem aceito, e para uma espessura de 4 mm um filtro 60 apresentou melhor qualidade.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

OBJETIVO: Utilizar o poder de processamento da tecnologia de grades computacionais para viabilizar a utilização do algoritmo de medida de similaridade na recuperação de imagens baseada em conteúdo. MATERIAIS E MÉTODOS: A técnica de recuperação de imagens baseada em conteúdo é composta de duas etapas seqüenciais: análise de textura e algoritmo de medida de similaridade. Estas são aplicadas em imagens de joelho e cabeça, nas quais se avaliaram a eficiência em recuperar imagens do mesmo plano e a seqüência de aquisição em um banco de 2.400 imagens médicas para testar a capacidade de recuperação de imagens baseada em conteúdo. A análise de textura foi utilizada inicialmente para pré-selecionar as 1.000 imagens mais semelhantes a uma imagem de referência escolhida por um clínico. Essas 1.000 imagens foram processadas utilizando-se o algoritmo de medida de similaridade na grade computacional. RESULTADOS: A precisão encontrada na classificação por análise de textura foi de 0,54 para imagens sagitais de joelho e de 0,40 para imagens axiais de cabeça. A análise de textura foi útil como filtragem, pré-selecionando imagens a serem avaliadas pelo algoritmo de medida de similaridade. A recuperação de imagens baseada em conteúdo utilizando o algoritmo de medida de similaridade aplicado nas imagens pré-selecionadas por análise de textura resultou em precisão de 0,95 para as imagens sagitais de joelho e de 0,92 para as imagens axiais de cabeça. O alto custo computacional do algoritmo de medida de similaridade foi amortizado pela grade computacional. CONCLUSÃO: A utilização da abordagem mista das técnicas de análise de textura e algoritmo de medida de similaridade no processo de recuperação de imagens baseada em conteúdo resultou em eficiência acima de 90%. A grade computacional é indispensável para utilização do algoritmo de medida de similaridade na recuperação de imagens baseada em conteúdo, que de outra forma seria limitado a supercomputadores.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Creació d’un sistema format per un algoritme genètic que permeti dissenyar de forma automática, les dades dels valors lingüístics d’un controlador fuzzy, per a un robot amb tracció diferencial. Les dades que s’han d’obtenir han de donar-li al robot, la capacitat d’arribar a un destí, evitant els obstacles que vagi trobant al llarg del camí

Relevância:

20.00% 20.00%

Publicador:

Resumo:

OBJETIVO: Este artigo apresenta um modelo de integração de algoritmos de diagnóstico auxiliado por computador dentro do fluxo de trabalho dos sistemas de gerenciamento de imagens, desenvolvido com base em um conjunto de ferramentas computacionais de código aberto e uso livre chamado dcm4che2. MATERIAIS E MÉTODOS: O modelo de integração é composto por um servidor de processamento de imagens e por serviços de comunicação. O gerenciamento de dados segue o fluxo de trabalho definido pelo perfil de pós-processamento (PWF) do Integrating the Healthcare Enterprise (IHE) e utiliza a funcionalidade de captura secundária do DICOM. Uma aplicação para lesões difusas de pulmão foi utilizada para prova de conceito. RESULTADOS: O algoritmo de classificação de padrões apresentou acurácia de 78%, com base em um método de teste de validação cruzada. A integração possibilita a visualização das imagens processadas como uma nova série dentro do estudo original. CONCLUSÃO: O modelo de integração proposto baseiase em perfis do IHE e permite o estabelecimento de procedimentos padronizados. Os princípios utilizados para integração do fluxo de trabalho são aplicáveis para qualquer tarefa não interativa de pós-processamento de imagens.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El problema de la regresión simbólica consiste en el aprendizaje, a partir de un conjunto muestra de datos obtenidos experimentalmente, de una función desconocida. Los métodos evolutivos han demostrado su eficiencia en la resolución de instancias de dicho problema. En este proyecto se propone una nueva estrategia evolutiva, a través de algoritmos genéticos, basada en una nueva estructura de datos denominada Straight Line Program (SLP) y que representa en este caso expresiones simbólicas. A partir de un SLP universal, que depende de una serie de parámetros cuya especialización proporciona SLP's concretos del espacio de búsqueda, la estrategia trata de encontrar los parámetros óptimos para que el SLP universal represente la función que mejor se aproxime al conjunto de puntos muestra. De manera conceptual, este proyecto consiste en un entrenamiento genético del SLP universal, utilizando los puntos muestra como conjunto de entrenamiento, para resolver el problema de la regresión simbólica.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Genetic algorithm was used for variable selection in simultaneous determination of mixtures of glucose, maltose and fructose by mid infrared spectroscopy. Different models, using partial least squares (PLS) and multiple linear regression (MLR) with and without data pre-processing, were used. Based on the results obtained, it was verified that a simpler model (multiple linear regression with variable selection by genetic algorithm) produces results comparable to more complex methods (partial least squares). The relative errors obtained for the best model was around 3% for the sugar determination, which is acceptable for this kind of determination.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This article presents a review of published literature concerning the use of computer simulations and modeling tools in Chemical Education. The findings about the possibilities of their application in the Chemistry curriculum, their effective implementation, the teaching methods involved, the research methodology and also the instruments of evaluation that were used and their results were described and analyzed. The need to develop adequate theory support to educators who want to start using this new technology in their Chemistry classes became evident along the research, as well as the lack of development of model perception among Chemistry educators and learners.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

We present in this educational article a theoretical analysis based on DFT/B3LYP 6-311++G (d,p) and ab initio MP2/6-311++G(d,p) computational calculation about the reactivity and the regioselectivity on the chlorination reaction of anisole, toluene and nitrobenzene, using trichloroisocyanuric acid (TICA) as donor of Cl+. The H.O.M.O. / L.U.M.O. energy and N.B.O. atomic charges of various aromatic systems were calculated in ab initio level. The energies of the reagents and intermediaries were calculated using D.F.T.. These results have been presented as a quantitative example for the S E A mechanism, in the undergraduate organic chemistry disciplines.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Teaching classes and events regarding the molecular aspects of drug-receptor interactions is not an easy task. The ligand stereochemistry and the spatial arrangement of the macromolecular targets highly increase the complexity of the process. In this context, the use of alternative and more playful approaches could allow students to gain a more thorough understanding of this important topic in medicinal chemistry. Herein, we describe a practical teaching approach that uses computational strategies as a tool for drug-receptor interaction studies performed for angiotencsin converting enzyme inhibitors (ACEi). Firstly, the students learn how to find the crystallographic structure (enzyme-ligand complex). Then, they proceed to the treatment of crude crystallographic data. Thereafter, they learn how to analyze the positioning of the drug on the active site of the enzyme, looking for regions related to the molecular recognition. At the end of the study, students can summarize the molecular requirements for the interaction and the structure-activity relationships of the studied drugs.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The use of spreadsheet softwares is not widespread in Chemical Education in Brazil as a computational education tool. By its turn the Qualitative Analytical Chemistry is considered a discipline with classical and non-flexible content. Thus in this work the spreadsheet software Excel® was evaluated as a teaching tool in a Qualitative Analytical Chemistry course for calculations of concentrations of the species in equilibrium in solutions of acids. After presenting the theory involved in such calculations the students were invited to elaborate the representation of the distribution of these species in a graphical form, using the spreadsheet software. Then the teaching team evaluated the resulting graphics regarding form and contents. The graphics with conceptual and/or formal errors were returned for correction, revealing significant improvement in the second presentation in all cases. The software showed to be motivating for the content of the discipline, improving the learning interest, while it was possible to prove that even in classical disciplines it is possible to introduce new technologies to help the teaching process.