22 resultados para Algoritmos de aproximação
em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul
Resumo:
O caos e a incoerência nas interações conservativas de três ondas e a transição súbita para o caos na equação não linear de Klein Gordon são estudados. É analisada a influência da presença de caos sobre a incoerência no problema da interação de um tripleto de ondas quando um modelo de aproximação adiabática deixa de ser válido. É encontrado um limiar para o valor do descasamento do tripleto de ondas, abaixo do qual a coerência e o acoplamento entre as ondas é o comportamento dominante. Na equação não linear de Klein Gordon estudou-se a transição entre um regime de dinâmica modulacional para um de caos espaço temporal e foi encontrada uma curva crítica no plano amplitude-frequência que o divide em regiões onde só existe transição para o caos caso o valor de amplitude exceder um certo limiar.
Resumo:
Este estudo foi motivado pela possibilidade de se empregar os conhecimentos da engenharia mecânica na solução de problemas de engenharia de alimentos por métodos numéricos, assim como pela utilização da dinâmica dos fluidos computacional (CFD) em mais um campo de pesquisa. A idéia básica foi a aplicação do método de elementos finitos na solução de problemas de escoamentos envolvendo mistura de diferentes componentes. Muitos alimentos apresentam-se como fluidos, e seu comportamento material pode ser newtoniano ou não newtoniano, às vezes descrito por relações constitutivas bastante complexas. Utilizou-se uma teoria de misturas apoiada nos conceitos de mecânica do contínuo para a modelagem mecânica do que se passou a considerar como um sistema multicomponente. Necessitou-se de uma detalhada revisão sobre os postulados clássicos da mecânica para que se pudesse recolocá-los, com alguma segurança e embasamento teórico, para sistemas multicomponentes. Tendo em mãos a modelagem do balanço de momentum e massa em sistemas multicomponentes, pôde-se aproximar estas equações através do método de elementos finitos. A literatura aponta que o método clássico de Galerkin não possui a eficiência necessária para a solução das equações de escoamento, que envolvem uma formulação mista onde se faz necessário tomar compatíveis os subespaços de velocidade e pressão, e também devido à natureza assimétrica da aceleração advectiva, o que também aparece como uma dificuldade na solução de problemas de advecçãodifusão, nos casos de advecção dominante. Assim, fez-se uso do método estabilizado tipo GLS, o qual supera as dificuldades enftentadas pelo método de Galerkin clássico em altos números de Reynolds, adicionando termos dependentes da malha, construídos de forma a aumentar a estabilidade da formulação de Galerkin original sem prejudicar sua consistência. Os resultados numéricos dividem-se em três categorias: problemas de transferência de quantidade de movimento para fluidos newtonianos, problemas de transferência de quantidade de movimento para fluidos com não linearidade material e problemas de advecção e difusão de massa em misturas. A comparação de algumas aproximações obtidas com as de outros autores se mostraram concordantes. A aproximação de problemas de fluidos segundo os modelos Carreau e Casson geraram os resultados esperados. A aproximação de um problema de injeção axial com mistura de dois fluidos produziu resultados coerentes, motivando a aplicação prática da aproximação por métodos estabilizados de problemas de misturas.
Resumo:
The recent advances in CMOS technology have allowed for the fabrication of transistors with submicronic dimensions, making possible the integration of tens of millions devices in a single chip that can be used to build very complex electronic systems. Such increase in complexity of designs has originated a need for more efficient verification tools that could incorporate more appropriate physical and computational models. Timing verification targets at determining whether the timing constraints imposed to the design may be satisfied or not. It can be performed by using circuit simulation or by timing analysis. Although simulation tends to furnish the most accurate estimates, it presents the drawback of being stimuli dependent. Hence, in order to ensure that the critical situation is taken into account, one must exercise all possible input patterns. Obviously, this is not possible to accomplish due to the high complexity of current designs. To circumvent this problem, designers must rely on timing analysis. Timing analysis is an input-independent verification approach that models each combinational block of a circuit as a direct acyclic graph, which is used to estimate the critical delay. First timing analysis tools used only the circuit topology information to estimate circuit delay, thus being referred to as topological timing analyzers. However, such method may result in too pessimistic delay estimates, since the longest paths in the graph may not be able to propagate a transition, that is, may be false. Functional timing analysis, in turn, considers not only circuit topology, but also the temporal and functional relations between circuit elements. Functional timing analysis tools may differ by three aspects: the set of sensitization conditions necessary to declare a path as sensitizable (i.e., the so-called path sensitization criterion), the number of paths simultaneously handled and the method used to determine whether sensitization conditions are satisfiable or not. Currently, the two most efficient approaches test the sensitizability of entire sets of paths at a time: one is based on automatic test pattern generation (ATPG) techniques and the other translates the timing analysis problem into a satisfiability (SAT) problem. Although timing analysis has been exhaustively studied in the last fifteen years, some specific topics have not received the required attention yet. One such topic is the applicability of functional timing analysis to circuits containing complex gates. This is the basic concern of this thesis. In addition, and as a necessary step to settle the scenario, a detailed and systematic study on functional timing analysis is also presented.
Resumo:
A equação de complexidade de um algoritmo pode ser expressa em termos de uma equação de recorrência. A partir destas equações obtém-se uma expressão assintótica para a complexidade, provada por indução. Neste trabalho, propõem-se um esquema de solução de equações de recorrência usando equações características que são resolvidas através de um "software" de computação simbólica, resultando em uma expressão algébrica exata para a complexidade. O objetivo é obter uma forma geral de calcular a complexidade de um algoritmo desenvolvido pelo método Divisão-e-Conquista.
Resumo:
Este trabalho apresenta novos algoritmos para o roteamento de circuitos integrados, e discute sua aplicação em sistemas de síntese de leiaute. As interconexões têm grande impacto no desempenho de circuitos em tecnologias recentes, e os algoritmos propostos visam conferir maior controle sobre sua qualidade, e maior convergência na tarefa de encontrar uma solução aceitável. De todos os problemas de roteamento, dois são de especial importância: roteamento de redes uma a uma com algoritmos de pesquisa de caminhos, e o chamado roteamento de área. Para o primeiro, procura-se desenvolver um algoritmo de pesquisa de caminhos bidirecional e heurístico mais eficiente, LCS*, cuja aplicação em roteamento explora situações específicas que ocorrem neste domínio. Demonstra-se que o modelo de custo influencia fortemente o esforço de pesquisa, além de controlar a qualidade das rotas encontradas, e por esta razão um modelo mais preciso é proposto. Para roteamento de área, se estuda o desenvolvimento de uma nova classe de algoritmos sugerida em [JOH 94], denominados LEGAL. A viabilidade e a eficiência de tais algoritmos são demonstradas com três diferentes implementações. Devem ser também estudados mecanismos alternativos para gerenciar espaços e tratar modelos de grade não uniforme, avaliando-se suas vantagens e sua aplicabilidade em outros diferentes contextos.
Resumo:
Este trabalho faz uma análise ampla sobre os algoritmos de posicionamento. Diversos são extraídos da literatura e de publicações recentes de posicionamento. Eles foram implementados para uma comparação mais precisa. Novos métodos são propostos, com resultados promissores. A maior parte dos algoritmos, ao contrário do que costuma encontrar-se na literatura, é explicada com detalhes de implementação, de forma que não fiquem questões em aberto. Isto só possível pela forte base de implementação por trás deste texto. O algorítmo de Fidduccia Mateyeses, por exemplo, é um algorítmo complexo e por isto foi explicado com detalhes de implementação. Assim como uma revisão de técnicas conhecidas e publicadas, este trabalho oferece algumas inovações no fluxo de posicionamento. Propõe-se um novo algorítimo para posicionamento inicial, bem como uma variação inédita do Cluster Growth que mostrta ótimos resultados. É apresentada uma série de evoluções ao algorítmo de Simulated Annealling: cálculo automático de temperatura inicial, funções de perturbação gulosas (direcionadas a força), combinação de funções de perturbação atingindo melhores resultados (em torno de 20%), otimização no cálculo de tamanho dos fios (avaliação das redes modificadas e aproveitamento de cálculos anteriores, com ganhos em torno de 45%). Todas estas modificações propiciam uma maior velocidade e convergência do método de Simulated Annealling. É mostrado que os algorítmos construtivos (incluindo o posicionador do Tropic, baseado em quadratura com Terminal Propagation) apresentam um resultado pior que o Simulated Annealling em termos de qualidade de posicionamento às custas de um longo tempo de CPD. Porém, o uso de técnicas propostas neste trabalho, em conjunto com outras técnicas propostas em outros trabalhos (como o trabalho de Lixin Su) podem acelerar o SA, de forma que a relação qualidade/tempo aumente.
Resumo:
A análise de um algoritmo tem por finalidade melhorar, quando possível, seu desempenho e dar condições de poder optar pelo melhor, dentre os algoritmos existentes, para resolver o mesmo problema. O cálculo da complexidade de algoritmos é muito dependente da classe dos algoritmos analisados. O cálculo depende da função tamanho e das operações fundamentais. Alguns aspectos do cálculo da complexidade, entretanto, não dependem do tipo de problema que o algoritmo resolve, mas somente das estruturas que o compõem, podendo, desta maneira, ser generalizados. Com base neste princípio, surgiu um método para o cálculo da complexidade de algoritmos no pior caso. Neste método foi definido que cada estrutura algorítmica possui uma equação de complexidade associada. Esse método propiciou a análise automática da complexidade de algoritmos. A análise automática de algoritmos tem como principal objetivo tornar o processo de cálculo da complexidade mais acessível. A união da metodologia para o pior caso, associada com a idéia da análise automática de programas, serviu de motivação para o desenvolvimento do protótipo de sistema ANAC, que é uma ferramenta para análise automática da complexidade de algoritmos não recursivos. O objetivo deste trabalho é implementar esta metodologia de cálculo de complexidade de algoritmos no pior caso, com a utilização de técnicas de construção de compiladores para que este sistema possa analisar algoritmos gerando como resultado final a complexidade do algoritmo dada em ordens assintóticas.
Resumo:
A anastomose sistêmico-pulmonar é um excelente procedimento paliativo para crianças e recém-nascidos portadores de cardiopatias congênitas cianóticas com diminuição da circulação pulmonar. Neste artigo, as aproximações “Streamline Upwind/Petrov-Galerkin – SUPG” foram utilizadas na simulação de escoamento de sangue em uma anastomose sistêmico pulmonar. A Anastomose estudada neste artigo é conhecido como Blalock-Taussig modificada no qual um enxerto de tubo sintético (prótese) é interposto entre a artéria subclávia esquerda e a artéria pulmonar com o objetivo de desviar parte do fluxo sistêmico ao pulmonar. A metodologia de elementos finitos utilizada, conhecida como método SUPG, supera as dificuldades enfrentadas pelo método de Galerkin clássico em altos números de Reynolds, que são compatibilizar os subespaços de velocidade e pressão – satisfazendo deste modo a condição denominada de Babuška-Brezzi e evitar oscilações espúrias devido à natureza assimétrica da aceleração advectiva de equação de momentum – adicionando termos malha-dependentes para a formulação de Galerkin clássica. Estes termos adicionais são construídos para aumentar a estabilidade da formulação de Galerkin original sem prejudicar sua consistência. Um modelo tridimensional parametrizado, utilizando o elemento lagrangeano trilinear, foi criado a partir de medições obtidas durante procedimento cirúrgico para avaliar os efeitos dos parametros geométricos envolvidos na cirurgia (diâmetro e ângulo do enxerto e a pulsatilidade do escoamento) Os resultados apresentam que o ângulo da anastomose proximal tem sensível influência na quantidade de fluxo desviada pelo enxerto e enorme influência na porcentagem de fluxo direcionado para cada um dos pulmões. Quanto ao diâmetro do enxerto conclui-se que este é o regulador principal da porcentagem de fluxo desviada. A partir das simulações realizadas determinou-se correlações para o fator de atrito e porcentagem de fluxo sangüíneo desviado pelo enxerto.
Resumo:
Esta dissertação apresenta como propósito de pesquisa compreender e explicar como a literatura infantil contribui para a construção do pensamento das crianças: como a criança assimila a história que lhe é lida ou contada? A reflexão acerca dos processos cognitivos e suas inter-relações com a literatura infantil tem por hipótese de que esta pode desencadear, através do seu conteúdo, as ações vividas pela criança, ou seja, a criança passa a relacionar suas experiências de vida com o que está no livro. Nesse sentido, a história do livro pode trazer uma contribuição importante para a Estruturação do Real. O trabalho fundamenta-se especialmente nas contribuições de Jean Piaget e utiliza o estudo de caso como estratégia de pesquisa. A investigação foi realizada com um grupo de seis crianças, cujas idades variavam entre 6 e 7 anos, que freqüentavam uma turma de 1º ano, do 1º Ciclo de uma escola pública da Rede Municipal de Ensino de Porto Alegre, ao longo do segundo semestre de 2003. O grupo foi observado em contextos que envolviam a literatura infantil dentro da escola. O procedimento de avaliação do processo cognitivo das crianças deu-se através de entrevistas clínicas – a primeira, realizada em setembro, e a segunda, em dezembro. O processo cognitivo dessas crianças é entendido aqui como sendo aquele que assinala a passagem dos raciocínios pré-conceptuais (transduções) para a atividade representativa de ordem operatória. O ato de escutar, recontar, comentar e discutir as histórias, presente tanto nas entrevistas clínicas como no trabalho escolar com a literatura infantil, privilegiou a narrativa (linguagem) das crianças, justamente por reconhecer a importância da mesma, tanto no que diz respeito ao começo como ao avanço da conceituação. Os resultados desta pesquisa apontam para a existência de um caminho solidário entre Letramento e Estruturação do Real, inclusive no que diz respeito à confirmação da hipótese inicial referente à relação estabelecida pela criança entre suas experiências de vida e as histórias guardadas nos livros infantis, tanto de tendência realista como fantasista. A qualidade das trocas simbólicas ocorridas entre as crianças e a professora durante as situações sistemáticas de interação com a literatura infantil produziu avanços significativos no quadro da representação cognitiva de todas as crianças, quando foram comparados os dados obtidos na segunda entrevista com aqueles da primeira. Além disso, a pesquisa confirma as contribuições de Piaget no que diz respeito ao pensamento intuitivo das crianças pesquisadas, as quais manifestaram raciocínios aparentemente operatórios, porém ligados a uma configuração perceptiva. Esses raciocínios indicam que para a criança compreender a ordem (seqüência da história) preestabelecida no objeto livro são necessárias ações ordenadas no plano da representação, bem como sua interação com o objeto livro e o adulto intérprete-leitor.
Resumo:
Este trabalho apresenta um conjunto de técnicas para a modelagem paramétrica e geração de malhas de superfícies para uso em sistemas de análise e simulações numéricas pelo Método dos Elementos Finitos. Foram desenvolvidos algoritmos para a geração paramétrica de superfícies, para a determinação das curvas de interseções entre superfícies e para a geração de malhas em superfícies curvas e recortadas. Foram implementas linhas e curvas paramétricas básicas, a partir das quais são geradas superfícies paramétricas de vários tipos que proporcionam uma grande flexibilidade de modelamento geométrico. Curvas e superfícies são geradas e manipuladas de forma interativa. São apresentadas técnicas que simplificam a implementação de linhas e superfícies paramétricas. Foi desenvolvido um algoritmo para determinar as curvas de interseção entre superfícies paramétricas, que são utilizadas como linhas de recorte (trimming lines) para obter geometrias complexas e compostas de várias superfícies. O algoritmo desenvolvido emprega técnicas de subdivisão adaptativa, por quadtrees, em função da curvatura local das superfícies. Primeiramente, obtém-se uma aproximação das curvas de interseção no espaço 3D, através da aproximação por triângulos. Os resultados iniciais são refinados e projetados sobre as duas superfícies envolvidas com algoritmos que permitem obter grande precisão. As curvas de interseção finais são mapeadas nos espaços paramétricos das duas superfícies, porém com uma parametrização única, o que facilita a junção com superfícies adjacentes Um algoritmo de geração de malha foi desenvolvido para gerar malhas triangulares de qualidade sobre as superfícies curvas e recortadas. O algoritmo utiliza um processo de subdivisão adaptativa por quadtrees, similar ao utilizado no algoritmo de interseção, para definir tamanhos de elementos em função da curvatura local. Em seguida, aplica-se um algoritmo tipo advancing front para gerar a malha sobre a superfície. Os algoritmos foram implementados e testados em um ambiente gráfico interativo especialmente desenvolvido para este trabalho. São apresentados vários exemplos que comprovam a eficiência das técnicas e algoritmos propostos, incluindo exemplos de matrizes de conformação mecânica para uso com código de análise METAFOR, análise de sensibilidade para otimização de pré-formas e de modelagem de superfícies compostas recortadas com geração de malhas de qualidade, para uso em análise por Elementos Finitos ou como contorno para geração de elementos tridimensionais.
Resumo:
Com o objetivo de desenvolver uma fundamentação teórica para o estudo formal de problemas de otimização NP-difíceis, focalizando sobre as propriedades estruturais desses problemas relacionadas à questão da aproximabilidade, este trabalho apresenta uma abordagem semântica para tratar algumas questões originalmente estudadas dentro da Teoria da Complexidade Computacional, especificamente no contexto da Complexidade Estrutural. Procede-se a uma investigação de interesse essencialmente teórico, buscando obter uma formalização para a teoria dos algoritmos aproximativos em dois sentidos. Por um lado, considera-se um algoritmo aproximativo para um problema de otimização genérico como o principal objeto de estudo, estruturando-se matematicamente o conjunto de algoritmos aproximativos para tal problema como uma ordem parcial, no enfoque da Teoria dos Domínios de Scott. Por outro lado, focaliza-se sobre as reduções entre problemas de otimização, consideradas como morfismos numa abordagem dentro da Teoria das Categorias, onde problemas de otimização e problemas aproximáveis são os objetos das novas categorias introduzidas. Dentro de cada abordagem, procura-se identificar aqueles elementos universais, tais como elementos finitos, objetos totais, problemas completos para uma classe, apresentando ainda um sistema que modela a hierarquia de aproximação para um problema de otimização NP-difícil, com base na teoria categorial da forma. Cada uma destas estruturas matemáticas fornecem fundamentação teórica em aspectos que se complementam. A primeira providencia uma estruturação interna para os objetos, caracterizando as classes de problemas em relação às propriedades de aproximabilidade de seus membros, no sentido da Teoria dos Domínios, enquanto que a segunda caracteriza-se por relacionar os objetos entre si, em termos de reduções preservando aproximação entre problemas, num ponto de vista externo, essencialmente categorial.
Resumo:
Nesse trabalho apresentamos algoritmos adaptativos do M´etodo do Res´ıduo M´ınimo Generalizado (GMRES) [Saad e Schultz, 1986], um m´etodo iterativo para resolver sistemas de equa¸c˜oes lineares com matrizes n˜ao sim´etricas e esparsas, o qual baseia-se nos m´etodos de proje¸c˜ao ortogonal sobre um subespa¸co de Krylov. O GMRES apresenta uma vers˜ao reinicializada, denotada por GMRES(m), tamb´em proposta por [Saad e Schultz, 1986], com o intuito de permitir a utiliza¸c˜ao do m´etodo para resolver grandes sistemas de n equa¸c˜oes, sendo n a dimens˜ao da matriz dos coeficientes do sistema, j´a que a vers˜ao n˜ao-reinicializada (“Full-GMRES”) apresenta um gasto de mem´oria proporcional a n2 e de n´umero de opera¸c˜oes de ponto-flutuante proporcional a n3, no pior caso. No entanto, escolher um valor apropriado para m ´e dif´ıcil, sendo m a dimens˜ao da base do subespa¸co de Krylov, visto que dependendo do valor do m podemos obter a estagna¸c˜ao ou uma r´apida convergˆencia. Dessa forma, nesse trabalho, acrescentamos ao GMRES(m) e algumas de suas variantes um crit´erio que tem por objetivo escolher, adequadamente, a dimens˜ao, m da base do subespa¸co de Krylov para o problema o qual deseja-se resolver, visando assim uma mais r´apida, e poss´ıvel, convergˆencia. Aproximadamente duas centenas de experimentos foram realizados utilizando as matrizes da Cole¸c˜ao Harwell-Boeing [MCSD/ITL/NIST, 2003], que foram utilizados para mostrar o comportamento dos algoritmos adaptativos. Foram obtidos resultados muito bons; isso poder´a ser constatado atrav´es da an´alise das tabelas e tamb´em da observa ¸c˜ao dos gr´aficos expostos ao longo desse trabalho.
Resumo:
A Estatística é uma ferramenta indispensável em todos os campos científicos. A Estatística descritiva é usada para sintetizar dados. O principal problema desta área está relacionado aos valores de uma amostra, os quais geralmente possuem erros que ocorrem durante a obtenção dos dados. Um dos objetivos deste trabalho é apresentar uma forma de representação para os valores amostrais que considera os erros contidos nestes valores. Esta representação é realizada através de intervalos. A literatura mostra que foram realizadas pesquisas somente em problemas de calcular os valores intervalares das medidas de dispersão variância, covariância e coeficiente de correlação, que a utilização da computação intervalar na solução de problemas de medidas de dispersão intervalar sempre fornece solução com intervalos superestimados (intervalos com amplitude grande), e que ao procurar uma solução com intervalos de amplitude pequena (através da computação da imagem intervalar), o problema passa a pertencer a classe de problemas NP-Difícil. Com o objetivo principal de analisar a complexidade computacional dos problemas de computar os valores dos indicadores estatísticos descritivos com entradas intervalares, e realizar uma classificação quanto a classe de complexidade, a presente tese apresenta: i) definições intervalares de medidas de tendência central, medidas de dispersão e separatrizes; ii) investigação da complexidade de problemas das medidas de tendência central média, mediana e moda, das medidas de dispersão amplitude, variância, desvio padrão, coeficiente de variação, covariância, coeficiente de correlação e das separatrizes e iii) representação intervalar dos valores reais, de tal modo que garante a qualidade de aproximação nos intervalos solução calculado através da extensão intervalar Primeiramente, apresentamos uma abordagem intervalar para os indicadores estatísticos e propomos algoritmos para a solução dos problemas de computar os intervalos de medidas de tendência central intervalar, dispersão intervalar e separatrizes intervalares. Tais algoritmos utilizam a aritmética intervalar definida por Moore, a extensão intervalar e foram projetados para serem executados em ambientes intervalares como IntLab e Maple Intervalar. Por meio da análise da complexidade computacional verificamos que os problemas de medidas de tendência central, dispersão e separatrizes, com entradas intervalares, pertencem à classe de problemas P. Este trabalho apresenta, portanto, algoritmos de tempo polinomial que calculam os intervalos dos indicadores estatísticos com entradas intervalares, e que retornam como solução intervalos com qualidade de aproximação. Os resultados obtidos no desenvolvimento do trabalho tornaram viável a computação da Estatística Descritiva Intervalar.