1000 resultados para Algoritmos computacionais
Resumo:
O item não apresenta o texto completo, para aquisição do livro na íntegra você poderá acessar a Editora da UFSCar por meio do link: www.editora.ufscar.br
Resumo:
Este material contém a apostila “Construção de algoritmos” da disciplina Algoritmos e programação I do curso de Sistemas de informação. O conteúdo programático a ser abordado é composto de 11 unidades, sendo: “Unidade 1: Conceitos básicos sobre algoritmos”; “Unidade 2: Conceitos básicos para o desenvolvimento de algoritmos”; “Unidade 3: Expressões algorítmicas”; “Unidade 4: Estratégia de desenvolvimento de algoritmos”; “Unidade 5: Comandos condicionais”; “Unidade 6: Comandos de repetição”; “Unidade 7: Ponteiros”; “Unidade 8: Estruturas compostas heterogêneas: registros”; “Unidade 9: Sub-rotinas”; “Unidade 10: Estruturas compostas homogêneas: arranjos”; “Unidade 11: Estruturas compostas mistas: homogêneas e heterogêneas”. O material possui figuras ilustrativas, algoritmos usados como exemplos e tabelas
Resumo:
O vídeo apresenta a relação entre a área de Interação Humano-Computador e fatores humanos, como características físicas, cognitivas e emocionais. O vídeo apresenta o Modelo de Processamento de Informação Humano (MPIH) e alguns exemplos do funcionamento do corpo humano em relação às soluções computacionais.
Resumo:
Versão com menu acessível para leitores de tela e vídeo com audiodescrição
Resumo:
Vídeo de introdução ao tema Análise de algoritmos. Neste vídeo são expostos os objetivos principais da análise de algoritmos, apresentando ao aluno o que é a análise de algoritmos e o que é a análise assintótica. É apresentado também o propósito da análise de algoritmos, a saber, para comparar dois ou mais algoritmos que fazem a mesma tarefa e decidir qual é o melhor. Para este tema, é apresentada a definição matemática relacionada ao assunto e também alguns exemplos visuais.
Resumo:
Versão acessível do vídeo com audiodescrição.
Resumo:
Versão acessível do vídeo com audiodescrição.
Resumo:
A videoaula traz uma introdução sobre análise de algoritmos e análise assintótica. A análise de algoritmos possibilita a compreensão do comportamento do algoritmo quando há muito o que processar, e a comparação entre algoritmos diferentes que resolvem um mesmo problema. A análise é feita por causa do tempo de execução, sendo possível fazer uma análise pelo espaço requerido.
Resumo:
A videoaula traz exemplos sobre análise de algoritmos, explanando sobre a análise de trechos com tempo constante, análise de trechos com repetições de incremento constante, e análise de trechos com multiplicação ou divisão do controle de repetição.
Resumo:
Nesta dissertação defendemos uma forma nova de medir o produto de software com base nas medidas usadas na teoria dos sistemas complexos. Consideramos o uso dessas medidas vantajoso em relação ao uso das medidas tradicionais da engenharia de software. A inovação desta dissertação sintetiza-se em considerar o produto de software como um sistema complexo, dotado de uma estrutura que comporta vários níveis e na proposta da correlação de gama longa como medida da complexidade de estrutura de programas fontes. Essa medida, invariante para a escala de cada nível da estrutura, pode ser calculada automaticamente. Na dissertação, primeiro descrevemos o processo de desenvolvimento do software e as medidas existentes para medir o referido processo e produto e introduzimos a teoria dos sistemas complexos. Concluímos que o processo tem características de sistema complexo e propomos que seja medido como tal. Seguidamente, estudamos a estrutura do produto e a dinâmica do seu. processo de desenvolvimento. Apresentamos um estudo experimental sobre algoritmos codificados em C, que usamos para validar hipóteses sobre a complexidade da estrutura do produto. Propomos a correlação de gama longa como medida da complexidade da estrutura. Estendemos essa medida a uma amostra codificada em Java. Concluímos, evidenciando as limitações e as potencialidades dessa medida e a sua aplicação em Engenharia de Software.
Resumo:
This master dissertation presents the study and implementation of inteligent algorithms to monitor the measurement of sensors involved in natural gas custody transfer processes. To create these algoritmhs Artificial Neural Networks are investigated because they have some particular properties, such as: learning, adaptation, prediction. A neural predictor is developed to reproduce the sensor output dynamic behavior, in such a way that its output is compared to the real sensor output. A recurrent neural network is used for this purpose, because of its ability to deal with dynamic information. The real sensor output and the estimated predictor output work as the basis for the creation of possible sensor fault detection and diagnosis strategies. Two competitive neural network architectures are investigated and their capabilities are used to classify different kinds of faults. The prediction algorithm and the fault detection classification strategies, as well as the obtained results, are presented
Resumo:
In this paper artificial neural network (ANN) based on supervised and unsupervised algorithms were investigated for use in the study of rheological parameters of solid pharmaceutical excipients, in order to develop computational tools for manufacturing solid dosage forms. Among four supervised neural networks investigated, the best learning performance was achieved by a feedfoward multilayer perceptron whose architectures was composed by eight neurons in the input layer, sixteen neurons in the hidden layer and one neuron in the output layer. Learning and predictive performance relative to repose angle was poor while to Carr index and Hausner ratio (CI and HR, respectively) showed very good fitting capacity and learning, therefore HR and CI were considered suitable descriptors for the next stage of development of supervised ANNs. Clustering capacity was evaluated for five unsupervised strategies. Network based on purely unsupervised competitive strategies, classic "Winner-Take-All", "Frequency-Sensitive Competitive Learning" and "Rival-Penalize Competitive Learning" (WTA, FSCL and RPCL, respectively) were able to perform clustering from database, however this classification was very poor, showing severe classification errors by grouping data with conflicting properties into the same cluster or even the same neuron. On the other hand it could not be established what was the criteria adopted by the neural network for those clustering. Self-Organizing Maps (SOM) and Neural Gas (NG) networks showed better clustering capacity. Both have recognized the two major groupings of data corresponding to lactose (LAC) and cellulose (CEL). However, SOM showed some errors in classify data from minority excipients, magnesium stearate (EMG) , talc (TLC) and attapulgite (ATP). NG network in turn performed a very consistent classification of data and solve the misclassification of SOM, being the most appropriate network for classifying data of the study. The use of NG network in pharmaceutical technology was still unpublished. NG therefore has great potential for use in the development of software for use in automated classification systems of pharmaceutical powders and as a new tool for mining and clustering data in drug development
Resumo:
The objective in the facility location problem with limited distances is to minimize the sum of distance functions from the facility to the customers, but with a limit on each distance, after which the corresponding function becomes constant. The problem has applications in situations where the service provided by the facility is insensitive after a given threshold distance (eg. fire station location). In this work, we propose a global optimization algorithm for the case in which there are lower and upper limits on the numbers of customers that can be served
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior
Resumo:
Techniques of optimization known as metaheuristics have achieved success in the resolution of many problems classified as NP-Hard. These methods use non deterministic approaches that reach very good solutions which, however, don t guarantee the determination of the global optimum. Beyond the inherent difficulties related to the complexity that characterizes the optimization problems, the metaheuristics still face the dilemma of xploration/exploitation, which consists of choosing between a greedy search and a wider exploration of the solution space. A way to guide such algorithms during the searching of better solutions is supplying them with more knowledge of the problem through the use of a intelligent agent, able to recognize promising regions and also identify when they should diversify the direction of the search. This way, this work proposes the use of Reinforcement Learning technique - Q-learning Algorithm - as exploration/exploitation strategy for the metaheuristics GRASP (Greedy Randomized Adaptive Search Procedure) and Genetic Algorithm. The GRASP metaheuristic uses Q-learning instead of the traditional greedy-random algorithm in the construction phase. This replacement has the purpose of improving the quality of the initial solutions that are used in the local search phase of the GRASP, and also provides for the metaheuristic an adaptive memory mechanism that allows the reuse of good previous decisions and also avoids the repetition of bad decisions. In the Genetic Algorithm, the Q-learning algorithm was used to generate an initial population of high fitness, and after a determined number of generations, where the rate of diversity of the population is less than a certain limit L, it also was applied to supply one of the parents to be used in the genetic crossover operator. Another significant change in the hybrid genetic algorithm is the proposal of a mutually interactive cooperation process between the genetic operators and the Q-learning algorithm. In this interactive/cooperative process, the Q-learning algorithm receives an additional update in the matrix of Q-values based on the current best solution of the Genetic Algorithm. The computational experiments presented in this thesis compares the results obtained with the implementation of traditional versions of GRASP metaheuristic and Genetic Algorithm, with those obtained using the proposed hybrid methods. Both algorithms had been applied successfully to the symmetrical Traveling Salesman Problem, which was modeled as a Markov decision process