1000 resultados para Algoritmos quase-analíticos
Resumo:
Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)
Resumo:
Trabalho Final de Mestrado para obtenção do grau de Mestre em Engenharia de Manutenção
Resumo:
Dissertação para obtenção do Grau de Doutor em Matemática na área de especialização de Análise Numérica
Resumo:
The problems of combinatory optimization have involved a large number of researchers in search of approximative solutions for them, since it is generally accepted that they are unsolvable in polynomial time. Initially, these solutions were focused on heuristics. Currently, metaheuristics are used more for this task, especially those based on evolutionary algorithms. The two main contributions of this work are: the creation of what is called an -Operon- heuristic, for the construction of the information chains necessary for the implementation of transgenetic (evolutionary) algorithms, mainly using statistical methodology - the Cluster Analysis and the Principal Component Analysis; and the utilization of statistical analyses that are adequate for the evaluation of the performance of the algorithms that are developed to solve these problems. The aim of the Operon is to construct good quality dynamic information chains to promote an -intelligent- search in the space of solutions. The Traveling Salesman Problem (TSP) is intended for applications based on a transgenetic algorithmic known as ProtoG. A strategy is also proposed for the renovation of part of the chromosome population indicated by adopting a minimum limit in the coefficient of variation of the adequation function of the individuals, with calculations based on the population. Statistical methodology is used for the evaluation of the performance of four algorithms, as follows: the proposed ProtoG, two memetic algorithms and a Simulated Annealing algorithm. Three performance analyses of these algorithms are proposed. The first is accomplished through the Logistic Regression, based on the probability of finding an optimal solution for a TSP instance by the algorithm being tested. The second is accomplished through Survival Analysis, based on a probability of the time observed for its execution until an optimal solution is achieved. The third is accomplished by means of a non-parametric Analysis of Variance, considering the Percent Error of the Solution (PES) obtained by the percentage in which the solution found exceeds the best solution available in the literature. Six experiments have been conducted applied to sixty-one instances of Euclidean TSP with sizes of up to 1,655 cities. The first two experiments deal with the adjustments of four parameters used in the ProtoG algorithm in an attempt to improve its performance. The last four have been undertaken to evaluate the performance of the ProtoG in comparison to the three algorithms adopted. For these sixty-one instances, it has been concluded on the grounds of statistical tests that there is evidence that the ProtoG performs better than these three algorithms in fifty instances. In addition, for the thirty-six instances considered in the last three trials in which the performance of the algorithms was evaluated through PES, it was observed that the PES average obtained with the ProtoG was less than 1% in almost half of these instances, having reached the greatest average for one instance of 1,173 cities, with an PES average equal to 3.52%. Therefore, the ProtoG can be considered a competitive algorithm for solving the TSP, since it is not rare in the literature find PESs averages greater than 10% to be reported for instances of this size.
Resumo:
The microstrip antennas are in constant evidence in current researches due to several advantages that it presents. Fractal geometry coupled with good performance and convenience of the planar structures are an excellent combination for design and analysis of structures with ever smaller features and multi-resonant and broadband. This geometry has been applied in such patch microstrip antennas to reduce its size and highlight its multi-band behavior. Compared with the conventional microstrip antennas, the quasifractal patch antennas have lower frequencies of resonance, enabling the manufacture of more compact antennas. The aim of this work is the design of quasi-fractal patch antennas through the use of Koch and Minkowski fractal curves applied to radiating and nonradiating antenna s edges of conventional rectangular patch fed by microstrip inset-fed line, initially designed for the frequency of 2.45 GHz. The inset-fed technique is investigated for the impedance matching of fractal antennas, which are fed through lines of microstrip. The efficiency of this technique is investigated experimentally and compared with simulations carried out by commercial software Ansoft Designer used for precise analysis of the electromagnetic behavior of antennas by the method of moments and the neural model proposed. In this dissertation a study of literature on theory of microstrip antennas is done, the same study is performed on the fractal geometry, giving more emphasis to its various forms, techniques for generation of fractals and its applicability. This work also presents a study on artificial neural networks, showing the types/architecture of networks used and their characteristics as well as the training algorithms that were used for their implementation. The equations of settings of the parameters for networks used in this study were derived from the gradient method. It will also be carried out research with emphasis on miniaturization of the proposed new structures, showing how an antenna designed with contours fractals is capable of a miniaturized antenna conventional rectangular patch. The study also consists of a modeling through artificial neural networks of the various parameters of the electromagnetic near-fractal antennas. The presented results demonstrate the excellent capacity of modeling techniques for neural microstrip antennas and all algorithms used in this work in achieving the proposed models were implemented in commercial software simulation of Matlab 7. In order to validate the results, several prototypes of antennas were built, measured on a vector network analyzer and simulated in software for comparison
Resumo:
Modelos escritos através dos conceitos da Mecânica do Dano no Contínuo representam atualmente uma alternativa consistente para a simulação numérica do comportamento de estruturas constituídas por materiais quase frágeis, onde a perda de rigidez em função da fissuração crescente é o fator preponderante da resposta não-linear de seus elementos estruturais. No entanto, modelos de dano apresentam forte dependência de parâmetros internos usados para descrever os critérios e evolução das variáveis de dano, que devem ser calibrados adequadamente para uma resposta mecânica coerente da estrutura. Neste contexto, o artigo mostra um estudo sobre a calibração de parâmetros do modelo de dano de Mazars e sua aplicação na análise numérica de vigas e pórticos planos em concreto armado. O Método dos Mínimos Quadrados é adotado para resolver o problema, em conjunto com a técnica de Gauss-Newton. Em virtude da ausência de resultados experimentais para diversas classes de resistência do concreto, como referência para o processo de calibração, são adotados alguns modelos constitutivos teóricos tanto à tração quanto à compressão. Esse processo de calibração de parâmetros é incorporado a um modelo mecânico em elementos finitos para análise de barras em concreto armado, com a consideração conjunta dos mecanismos complementares de resistência ao cisalhamento, como efeito de pino, armadura transversal e engrenamento de agregados. Uma lei constitutiva exponencial para o decaimento da resistência à tração do concreto é proposta com o objetivo de simular o comportamento do tipo tension softening do material. Testes de simulação envolvendo o modelo proposto foram realizados, comparando-se com resultados experimentais e numéricos mostrando a boa precisão e capacidade de obtenção de cargas últimas em estruturas de barras em concreto armado.
Resumo:
We review here the chemistry of reactive oxygen and nitrogen species, their biological sources and targets; particularly, biomolecules implicated in the redox balance of the human blood, and appraise the analytical methods available for their detection and quantification. Those biomolecules are represented by the enzymatic antioxidant defense machinery, whereas coadjutant reducing protection is provided by several low molecular weight molecules. Biomolecules can be injured by RONS yielding a large repertoire of oxidized products, some of which can be taken as biomarkers of oxidative damage. Their reliable determination is of utmost interest for their potentiality in diagnosis, prevention and treatment of maladies.
Resumo:
In this review recent methods developed and applied to solve criminal occurences related to documentoscopy, ballistic and drugs of abuse are discussed. In documentoscopy, aging of ink writings, the sequence of line crossings and counterfeiting of documents are aspects to be solved with reproducible, fast and non-destructive methods. In ballistic, the industries are currently producing ''lead-free'' or ''nontoxic'' handgun ammunitions, so new methods of gunshot residues characterization are being presented. For drugs analysis, easy ambient sonic-spray ionization mass spectrometry (EASI-MS) is shown to provide a relatively simple and selective screening tool to distinguish m-CPP and amphetamines (MDMA) tablets, cocaine and LSD.
Resumo:
Universidade Estadual de Campinas . Faculdade de Educação Física
Resumo:
Plastic packaging materials intended for use in food packaging is an area of great interest from the scientific and economic point of view due to the irreversible internationalization and globalization process of food products. Nevertheless, a debate related to food safety aspects has emerged within the scientific community. Therefore, the development of analytical methods that allow identifying and quantifying chemical substances of toxicological potential in the packaging is considered essential. This article focuses on the main analytical methods, including validation parameters, as well as extraction and quantification techniques for determination of volatile organic compounds from food packaging materials.
Resumo:
A definição das parcelas familiares em projetos de reforma agrária envolve questões técnicas e sociais. Essas questões estão associadas principalmente às diferentes aptidões agrícolas do solo nestes projetos. O objetivo deste trabalho foi apresentar método para realizar o processo de ordenamento territorial em assentamentos de reforma agrária empregando Algoritmo Genético (AG). O AG foi testado no Projeto de Assentamento Veredas, em Minas Gerais, e implementado com base no sistema de aptidão agrícola das terras.
Resumo:
O presente trabalho versa sobre modos de vida no contemporâneo referente às práticas em torno de medicamentos ansiolíticos. Propomos um modo de pesquisa que não visa a descoberta de verdades, mas a escuta e a escrita das sensibilidades em processo na atualidade. Apropriamo-nos do cinema e da entrevista, intercessores deste trabalho, para dar vazão às vozes que se proferem em torno dessa temática. Os filmes: A pele que habito, Medianeras e O palhaço, somado a duas entrevistas com usuários de ansiolíticos, compõe o corpo desta pesquisa. As análises e a escuta deste campo nos levaram a uma discussão paradoxal entre modos de vida os quais, ao mesmo tempo em que nos lança em ritmos cada vez mais velozes e adoecedores - resultado das forças capitalísticas, tecnológica e midiática – também produzem desejo de anestesiamento do corpo, para suportar a saturação a qual nos encontramos. Corpos que não têm agüentado mais os novos ritmos de vida e, por isso, pedem uma nova ética, uma política de recusa aos ritmos estafantes. Uma discussão com base nos autores Deleuze, Guattari, Nietzsche, Spinoza e Foucault.
Resumo:
Este artigo busca investigar como surgiu e se desenvolveu a hipótese de que o Brasil se tornasse um dos membros permanentes do Conselho de Segurança das Nações Unidas quando a organização foi criada em 1945. As motivações do presidente Roosevelt ao fazer essa proposta em 1944, durante a Conferência de Dumbarton Oaks, as resistências encontradas, assim como a posição que adotou o governo brasileiro na Conferência de São Francisco, são analisadas com base em fontes de arquivo e documentos do período em estudo.
Resumo:
Este artigo avalia os diferentes impactos de variáveis relevantes na descoberta e na difusão de tecnologias, em mercados de alta competitividade. O objetivo foi identificar possibilidades de convívio de diferentes grupos estratégicos, associados ao uso ou à produção de tecnologias convencionais ou inovadoras. Foi utilizado um método matemático de busca e otimização, inspirado nos mecanismos da genética e na evolução de população de seres vivos. Os resultados obtidos sugerem que a interação entre empresas inovadoras pode, simultaneamente, permitir um aprimoramento da tecnologia e criar obstáculos para a entrada de novos competidores. Apesar de ser uma simplificação que não permite incorporar toda a complexidade do mercado, o modelo possibilita uma investigação dos comportamentos corporativos e de evolução de estratégias tecnológicas, principalmente em situações em que é difícil levantar dados empíricos ou em que casos específicos não permitem generalizações de evidências.
Resumo:
Ao me ter sido apresentado o tema focado neste trabalho, a curiosidade apoderou-se de mim para tentar perceber o que eram os algoritmos genéticos, a aprendizagem automática e a aplicação dos algoritmos genéticos sobre este tipo de aprendizagem e onde é que estas técnicas podiam ser aplicadas. Assim, neste trabalho é realizado um estudo destes temas relativamente ao seu funcionamento, aplicabilidade, problemas e soluções existentes, bem como, a comparação entre duas das mais conhecidas abordagens ao nível da aprendizagem automática baseada em algoritmos genéticos. São no fim apresentados programas exemplificativos de implementações de aplicação de algoritmos genéticos a problemas de optimização/descoberta e de aprendizagem automática. Este texto está organizado em cinco capítulos, sendo o primeiro a introdução, o segundo é uma apresentação dos algoritmos genéticos, no terceiro capítulo é apresentada a técnica de aprendizagem automática baseada em algoritmos genéticos, as suas diferentes abordagens e implementações, aplicabilidade e comparação entre abordagens. No quarto capítulo são apresentados alguns exemplos práticos que pretendem demonstrar a forma como se implementam algumas das abordagens referidas nos capítulos anteriores com o intuito de ver o seu funcionamento na prática e comparar diferentes algoritmos no mesmo problema.