37 resultados para Equaçõesdiferenciais parciais


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nesta dissertação apresentamos e desenvolvemos o Método de Perron, fazendo uma aplicação ao ploblema de Dirichlet para a equação das superfícies de curvatura média constante em R3. Apresentamos também uma extensão deste método dentro de EDP's e, por fim, obtemos uma extensão geométrica que se aplica a superfícies ao invés de gráficos. Comentamos a aplicação deste método geométrico á existência de superfícies mínimas tendo como bordo duas curvas convexas em planos paralelos do R3.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A produção de soja é uma das principais atividades econômicas na Região Noroeste do Estado do Rio Grande do Sul. As perdas de produto em condições de comercialização ocasionadas nas atividades de secagem e armazenamento são significativas, justificando a pesquisa e aprimoramento destes processos. Nesta tese foram pesquisados dois problemas: 1. Modelamento matemático dos processos de secagem, utilizando parâmetros conhecidos de soja e 2. Modelamento matemático do problema de aeração para o cálculo da distribuição da pressão e da velocidade do ar na massa de grãos em unidades de armazenamento de soja. No problema de secagem foi desenvolvido um sistema composto de quatro equações diferenciais parciais hiperbólicas acopladas não-lineares, que descreve o comportamento da temperatura e do teor de umidade do ar e dos grãos em função do tempo. Para resolver o sistema foram utilizados os métodos das diferenças finitas (p. ex., métodos de MacCormack e Crank- Nicolson.) e o método dos volumes finitos. A análise dos resultados permitiu recomendar o método mais adequado para cada tipo do problema. Para determinação da intensidade do fluxo de massa e de calor foram utilizados os dados experimentais de camada fina obtidos da literatura e complementados com dados experimentais desta tese. Foi desenvolvido um equipamento para obtenção das curvas de secagem de grãos em secador de leito fixo, a fim de identificar o modelo para secagem em camada espessa. A comparação entre os resultados experimentais e das simulações numéricas mostrou que o modelo descreve razoavelmente a dinâmica de secagem No problema de aeração foi desenvolvido um modelo matemático que descreve o escoamento do ar em sistemas de armazenamento de grãos, baseado em relações experimentais entre velocidade e gradiente de pressão. Para resolver o problema de aeração foi utilizado o método dos elementos finitos e desenvolvido um programa computacional. Um teste realizado com o programa mostrou que os resultados da solução numérica convergem para uma solução analítica conhecida. As simulações realizadas mostraram que o programa computacional pode ser usado como instrumento auxiliar para o projeto de silos, possibilitando o cálculo e a visualização gráfica da distribuição das pressões e das linhas de corrente em diferentes seções do armazém.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Propomos uma idealização da situação em que uma macromolécula é ionizada em um solvente. Neste modelo a área da superfície da molécula é suposta ser grande com respeito a seu diâmetro. A molécula é considerada como um dielétrico com uma distribuição de cargas em sua superfície. Utilizando as condições de transmissão, a distribuição de Boltzmann no solvente e resultados recentes sobre espaços de Sobolev no contexto de espaços métricos, bem como de integração sobre superfícies irregulares, o problema é formulado em forma variacional. Resultados clássicos do cálculo de variações permitem a resolução analítica do problema.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A paralelização de métodos de resolução de sistemas de equações lineares e não lineares é uma atividade que tem concentrado várias pesquisas nos últimos anos. Isto porque, os sistemas de equações estão presentes em diversos problemas da computação cientí ca, especialmente naqueles que empregam equações diferenciais parciais (EDPs) que modelam fenômenos físicos, e que precisam ser discretizadas para serem tratadas computacionalmente. O processo de discretização resulta em sistemas de equações que necessitam ser resolvidos a cada passo de tempo. Em geral, esses sistemas têm como características a esparsidade e um grande número de incógnitas. Devido ao porte desses sistemas é necessária uma grande quantidade de memória e velocidade de processamento, sendo adequado o uso de computação de alto desempenho na obtenção da solução dos mesmos. Dentro desse contexto, é feito neste trabalho um estudo sobre o uso de métodos de decomposição de domínio na resolução de sistemas de equações em paralelo. Esses métodos baseiam-se no particionamento do domínio computacional em subdomínios, de modo que a solução global do problema é obtida pela combinação apropriada das soluções de cada subdomínio. Uma vez que diferentes subdomínios podem ser tratados independentemente, tais métodos são atrativos para ambientes paralelos. Mais especi camente, foram implementados e analisados neste trabalho, três diferentes métodos de decomposição de domínio. Dois desses com sobreposição entre os subdomínios, e um sem sobreposição. Dentre os métodos com sobreposição foram estudados os métodos aditivo de Schwarz e multiplicativo de Schwarz. Já dentre os métodos sem sobreposição optou-se pelo método do complemento de Schur. Todas as implementações foram desenvolvidas para serem executadas em clusters de PCs multiprocessados e estão incorporadas ao modelo HIDRA, que é um modelo computacional paralelo multifísica desenvolvido no Grupo de Matemática da Computação e Processamento de Alto Desempenho (GMCPAD) para a simulação do escoamento e do transporte de substâncias em corpos de águas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente estudo teve por objetivo avaliar se a aplicação tópica de flúor fosfato acidulado (FFA) em alta concentração tem efeito adicional no controle de lesões de esmalte, comparado ao uso de dentifrício fluoretado (baixa concentração). A freqüência de FFA como auxiliar no tratamento de lesões de cárie e a deposição de flúor no esmalte após diferentes aplicações de flúor am alta e baixa concentração também foram avaliadas. Para tanto, 5 indivíduos utilizaram, por 42 dias, próteses parciais removíveis inferiores contendo blocos de esmalte bovino desmineralizados. Os espécimes de esmalte forma divididos em 5 grupos: (1) escovação 3 vezes ao dia com dentifrício fluoretado (DF) (1100 ppm F), (2) DF+1 aplicação tópica FFA (12300 ppm F), (3) DF+2 FFA, (4) DF+3 FFA, e 5) DF+4 FFA. O intervalo entre as aplicações foi de uma semana. Cinco blocos hígidos e 5 blocos desmineralizados foram utilizados como controle e não foram submetidos ao período intraoral. As alterações clínicas foram registradas com relação à textura, coloração e brilho superficiais. Análises de microdureza superficial (MS) e em cortes longitudinais (MCL), de rugosidade superficial (RS) e de conteúdo de flúor depositado no esmalte foram realizadas. Modificações clínicas semelhantes de coloração foram observadas em todos os grupos após formação da lesão in vitro, apesar da ausência de mudanças na textura e brilho superficiais. Após escovação e tratamento com flúor, todos os blocos desmineralizados (esbranquiçados), independentemente do tratamento, tornaram-se mais amarelados. Não foram detectadas mudanças na textura e brilho superficiais. Os valores de MS e de conteúdo de flúor aumentaram (p<0,05) em relação aos blocos demineralizados somente a partir de 2 FFA. Os valores de MCL não mostraram diferenças entre os blocos tratados e os desmineralizados em qualquer distância da superfície do esmalte. Os grupos DF+3 FFA e DF+ 4 FFA foram os únicos capazes de aumentar os valores de MS em relação aos blocos desmineralizados. Estes tratamentos levaram a um aumento significativo de flúor solúvel e insolúvel comparado aos espécimes hígidos e desmineralizados. Ainda que todas as lesões tenham sido controladas clinicamente e não mostrem diferenças de microdureza, parece que aquelas tratadas com maior número de FFA produziram um maior reservatório de flúor disponível para inibir novos processos de desmineralização.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta pesquisa propõe um modelo de avaliação dos custos dos acidentes do trabalho e das doenças relacionadas com o trabalho sob uma nova ótica, fundamentado no método de custeio por atividades (ABC – Activity-Based Costing). Basicamente, no modelo proposto, soma-se, às duas fases do método ABC (rastreamento dos recursos às atividades e das atividades aos objetos de custo parciais), uma terceira fase de alocação dos objetos de custo parciais ao acidente do trabalho ou à doença relacionada com o trabalho. Os elementos constituintes e os componentes de custo incluídos no modelo proposto foram baseados na revisão bibliográfica sobre os custos dos acidentes e das doenças do trabalho, contabilidade e sistemas de custos. O modelo foi validado por meio de um estudo de caso na indústria da construção, tendo-se considerado sua aplicabilidade, confiabilidade dos resultados e auxílio no processo de tomada de decisões. Os resultados obtidos no estudo de caso mostraram que o modelo proposto possibilitou a visão de custos inicialmente não captados pelo modelo em uso na empresa e que pode atuar como ferramenta de apoio ao processo de tomada de decisões em segurança e saúde no trabalho porque estabelece novos parâmetros para tal avaliação: alocação dos recursos e atividades destinadas ao atendimento do acidente/doença em centros de atividades e objetos de custo parciais. Foram, também, identificadas oportunidades de aperfeiçoamento do modelo, pois o estudo de caso evidenciou que a aplicação do modelo não foi tão fácil como se esperava e, portanto, evidenciando a necessidade da introdução de uma primeira etapa de lançamento do modelo para melhor aplicação em empresas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os requisitos direcionam o desenvolvimento de software porque são cruciais para a sua qualidade. Como conseqüência tanto requisitos funcionais quanto não funcionais devem ser identificados o mais cedo possível e sua elicitação deve ser precisa e completa. Os requisitos funcionais exercem um papel importante uma vez que expressam os serviços esperados pela aplicação. Por outro lado, os requisitos não funcionais estão relacionados com as restrições e propriedades aplicadas ao software. Este trabalho descreve como identificar requisitos não funcionais e seu mapeamento para aspectos. O desenvolvimento de software orientado a aspectos é apontado como a solução para os problemas envolvidos na elicitação e modelagem dos requisitos não funcionais. No modelo orientado a aspectos, o aspecto é considerado o elemento de primeira ordem, onde o software pode ser modelado com classes e aspectos. As classes são comumente usadas para modelar e implementar os requisitos funcionais, já os aspectos são adotados para a modelagem e implementação dos requisitos não funcionais. Desse modo, é proposta a modelagem dos requisitos não funcionais através das fases do ciclo de vida do software, desde as primeiras etapas do processo de desenvolvimento. Este trabalho apresenta o método chamado FRIDA – From RequIrements to Design using Aspects, cujo objetivo é determinar uma forma sistemática para elicitar e modelar tanto os requisitos funcionais quanto os não funcionais, desde as fases iniciais do ciclo de desenvolvimento. Em FRIDA, a elicitação dos requisitos não funcionais é realizada usando-se checklists e léxicos, os quais auxiliam o desenvolvedor a descobrir os aspectos globais – utilizados por toda a aplicação – bem como, os aspectos parciais que podem ser empregados somente a algumas partes da aplicação. O próximo passo consiste na identificação dos possíveis conflitos gerados entre aspectos e como resolvê-los. No método FRIDA, a identificação e resolução de conflitos é tão importante quanto a elicitação de requisitos não funcionais, nas primeiras fases do ciclo de vida do software. Além disso, é descrito como usar a matriz de conflitos para automatizar esse processo sempre que possível. A extração dos aspectos e sua modelagem visual são características muito importantes, suportadas pelo método, porque elas possibilitam a criação de modelos que podem ser reutilizados no futuro. Em FRIDA, é demonstrado como transformar os requisitos em elementos da fase de projeto (classes e aspectos) e como traduzir esses elementos em código. Outra característica do método FRIDA é que a conexão entre diagramas, que pertencem a diferentes fases do processo de desenvolvimento do software, permite um alto nível de rastreabilidade. Em resumo, FRIDA requer que o desenvolvedor migre de uma visão puramente funcional para outra que contemple também os requisitos não funcionais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As particularidades encontradas na modelagem de bancos de dados geográficos tornam necessário o desenvolvimento de modelos específicos. A totalidade dos modelos desenvolvidos oferece recursos para a modelagem de aspectos estáticos. Alguns dos modelos apresentam soluções parciais para a modelagem de aspectos dinâmicos. A possibilidade de executar processos de análise geográfica, que alteram o estado dos componentes do banco de dados geográficos é, de forma geral, a maior motivação para justificar os investimentos necessários para a sua construção. A formalização desses processos em um modelo conceitual, na fase de projeto, torna desnecessário o uso da terminologia específica que cada software de SIG emprega. A solução desenvolvida estende um framework conceitual (GeoFrame) com uma semântica que suporta a expressão de processos de análise geográfica, mantendo compatibilidade com a linguagem UML. Para utilizar de forma adequada os recursos do framework, uma metodologia para a elaboração do modelo do usuário é indicada. Nessa metodologia, os processos são identificados a partir da elaboração de diagramas de casos de uso e atividades, incorporados no diagrama de classes e detalhados através de diagramas de atividades contendo ações. Um levantamento sobre operações utilizadas em processos de análise geográfica abrangendo a visão conceitual, lógica e de implementação de vários autores levou à construção de um catálogo de operações geográficas. Essas operações foram modeladas utilizando os elementos de modelagem de comportamento da especificação da UML, versão 2.0. O conjunto de recursos oferecidos nesse trabalho proporciona ao projetista de bancos de dados geográficos o desenvolvimento de uma especificação em alto nível e abrangente, utilizando a linguagem UML, reconhecida como padrão em modelagem de sistemas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Apresentamos a fotometria de 6 campos estelares profundos distribuídos na Grande Nuvem de Magalhães obtidos com a Wide Field and Planetary Camera 2/Hubble Space Telescope em duas bandas fotométricas: F814W (~I) e F555W (~V). Foram selecionadas ao todo 15997 estrelas pela nossa amostra, que somadas às estrelas da amostra de Castro et aI. 2001 [9] contabilizaram 22239 estrelas, dentro de limites de magnitude típicos que estão no intervalo 18.5<-V <-26. Investigamos o comportamento do erro fotométrico através da tarefa PHOT/IRAF, bem como via medidas independentes de magnitude de um mesmo objeto obtidas com diferentes exposições. Implementamos um método de correção para a completeza fotométrica como função da posição no diagrama cor-magnitude, isto é, com função tanto da magnitude como da cor e analisamos a sensibilidade das funções de luminosidade obtidas para diferentes métodos de correção. Foram obtidos os diagramas cor-magnitude, com os quais ajustamos isócronas de Pádova com idades T ;S 16 Gano e metalicidades 0.001 < Z < 0.004 ou -1.3 < [Fe/H] < -0.7. A população mais velha (r~12 Gano) pode ser encontrada através do ponto de turn-off em V~22. Estrelas de idade intermediária (r~1 - 8 Gano) podem ser localizadas pela presença de um clump. Os campos próximos aos aglomerados jovens NGC1805 e NGC1818 são os campos mais populosos, apresentando estrelas com r~1 Gano. Construímos funções de luminosidade para 18.5<-V <-25, utilizando os dados das duas amostras; não foram encontradas diferenças significativas entre os campos Desenvolvemos um método para geração de diagramas cor-magnitude (CMDs) artificiais a partir de um modelo de histórico de formação estelar. Este método incorpora os efeitos de erros fotométricos, binarismo não resolvido, avermelhamento e permite o uso de formas variadas de função de massa inicial e do próprio histórico. Implementamos o Método dos Modelos Parciais para modelamento de CMDs, incluindo experimentos controlados para a comprovação da validade deste método na busca de vínculos ao histórico de formação estelar da Grande Nuvem de Magalhães em dife!entes regiões. Recuperamos SFHs confiáveis para cada um dos 6 campos da LMC. Observamos variações na formação estelar de um campo para outro. Em todos os campos encontramos uma lacuna na formação estelar com 7 rv 700 Mano. Os dois campos próximos à barra (NGC1805 e NGC1818) apresentam alguns pequenos surtos, tendo formado em sua maioria, estrelas velhas ou relativamente jovens. Já os campos próximos a NGC1831 e NGC1868 apresentam formação estelar que se aproxima de um histórico de formação estelar uniforme, com alguns pequenos surtos. Os campos NGC2209 e Hodge 11 apresentam três períodos de formação estelar muitos semelhantes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho tem por objetivo estudar a regularidade de soluções de Equações Diferenciais Parciais Elípticas da forma Lu = f, para f 2 Lp(­), onde p > 1. Para isto, usamos a Decomposição de Calderon-Zygmund e um resultado que é consequência deste, o Teorema da Interpolação de Marcinkiewicz. Além disso, usando quocientes-diferença provamos a regularidade das soluções para o caso p = 2 e L = ¡¢ de uma forma alternativa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O currículo-nômade é produzido no acontecendo. Ele escapa do planejamento e do controle. Seus percursos são marcados por esta cartografia, uma geografia curricular, que indica alguns movimentos de desterritorialização e reterritorialização, assinalando os devires do conceito currículo - nômade e programa - com outros conceitos. Estes movimentos são disparados pelos bonecos de pano, inventados em uma Escola Municipal Infantil na periferia de Porto Alegre. Os bonecos, Bruxela e Roberto, passam de arranjamentos maquínicos a personagens conceituais, traçando um plano de imanência e criando conceitos. Os conceitos avizinham-se e se atualizam nas redes de relações de forças, conectando bruxa, bruxaria, pirata e pirataria a diferentes elementos que os compõem. Os personagens conceituais deslizam para outros planos: de composição, transformando-se em figuras estéticas; e de referência, tornando-se observadores parciais. A educação é tratada como um plano de imanência, uma máquina diagramática, cujos traços atravessam outras máquinas. Neste plano, a Educação Infantil institui uma organização, conformando um organismo. Os traços diagramáticos, também, perpassam os eixos de significação e de subjetivação, constituindo um rosto que se desfaz em uma paisagem. As trajetórias da Bruxela e do Roberto indicam possibilidades de afirmar uma não-filosofia, no sentido de Gilles Deleuze e Félix Guattari. Seus deslocamentos produzem um exercício de vida, uma experimentação em que crianças, professoras, monitoras e famílias filosofam.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Comunidades campestres foram descritas por Tipos Funcionais de Plantas (TFs). Utilizou-se um método politético de identificação de atributos macromorfológicos da vegetação e TFs com máxima correlação com as variáveis ambientais consideradas. Avaliaram-se os padrões de resposta da vegetação à herbivoria por rebanho bovino (Tipos Funcionais de Resposta: TFRs), e o efeito da estrutura das comunidades de TFs no processo seletivo do pastejo (Tipos Funcionais de Efeito: TFEs), bem como o grau de sobreposição dos tipos identificados. A alternância entre condições de exposição ao distúrbio ou exclusão do mesmo permitiu observar variações em padrões espaciais e temporais da composição da vegetação assim descrita. Buscou-se a reconstrução de uma série temporal única através de um método determinístico baseado na sobreposição espaço-temporal desses padrões. O experimento foi realizado num período de nove meses, tendo sido a estrutura da vegetação avaliada em função de dois períodos de pastejo. Observou-se uma diferença mais nítida na composição de TFRs entre as comunidades protegidas do pastejo e aquelas mais freqüentemente pastejadas. Comunidades protegidas apresentaram TFRs de maior porte, biomassa uniformemente distribuída e maiores proporções de caules lignificados, enquanto que uma tendência mais nítida em direção a uma concentração de biomassa aérea próxima do solo foi verificada com o aumento da frequência do distúrbio. A relação com um índice de intensidade de desfolha indicou a preferência por TFEs com pouca proporção de lâminas foliares senescentes, porte intermediário, e uma mínima proporção de biomassa aérea alocada a caules lignificados. Embora tenha sido verificada uma correspondência entre os atributos que descreveram os TFRs e TFEs, a correlação obtida entre as duas abordagens mostrou-se pouco satisfatória A série temporal obtida pelo método determinístico não apresentou padrões estáveis, possivelmente devido ao número insuficiente de séries parciais observadas, bem como ao curto período de avaliação das mesmas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo deste trabalho é propor uma metodologia para medição e controle de uma estratégia pré-existente de manufatura, visando a preencher uma lacuna identificada nos processos de gestão estratégica – a falta de alinhamento automático das ações definidas nos processos de planejamento estratégico de manufatura com a medição do desempenho. Observada sob uma perspectiva sistêmica, a manufatura se relaciona com o meio pela importação de informação, energia e materiais, exportando produtos, informação e serviços. Através de mecanismos de realimentação, como a medição de desempenho e a monitoração de grandezas ambientais, a manufatura governa seus recursos de modo a atingir objetivos, geralmente estabelecidos no planejamento estratégico. Considerando a problemática de medição e controle, faz-se uma discussão sobre a perspectiva sistêmica da manufatura, sobre formas de estruturar objetos, muitas vezes intangíveis, que deverão ser medidos e sobre modelos já propostos de medição do desempenho organizacional, comparando-os e propondose uma classificação. Apoiado na revisão bibliográfica, por um método de pesquisa hipotético-dedutivo, propõe-se uma metodologia para estruturar um sistema de medição de uma estratégia existente, que permita o controle das ações sempre que os objetivos não estejam sendo alcançados e que possa se adaptar sempre que o cenário estratégico varie. Por um método de trabalho de aproximações parciais testa-se e refina-se a metodologia proposta. Inicia-se a fase experimental pela modelagem e avaliação da capacidade de competição de uma manufatura de equipamentos eletrônicos, dada uma estratégia existente. Passa-se então à modelagem de parâmetros de processo de manufatura, tais como o tempo de atravessamento, o inventário em processo e o desempenho, necessários para medições internas, testada em uma manufatura calçadista. Agrega-se então ao conhecimento já testado uma técnica de otimização de cursos de ação estratégica e testa-se a metodologia como um todo em uma estratégia existente de manufatura mecânica. Ao fim, discute-se o caso e comparam-se os resultados com outras fontes, encaminhando-se a continuidade de pesquisas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Fenômenos naturais, tecnológicos e industriais podem, em geral, ser modelados de modo acurado através de equações diferenciais parciais, definidas sobre domínios contínuos que necessitam ser discretizados para serem resolvidos. Dependendo do esquema de discretização utilizado, pode-se gerar sistemas de equações lineares. Esses sistemas são, de modo geral, esparsos e de grande porte, onde as incógnitas podem ser da ordem de milhares, ou até mesmo de milhões. Levando em consideração essas características, o emprego de métodos iterativos é o mais apropriado para a resolução dos sistemas gerados, devido principalmente a sua potencialidade quanto à otimização de armazenamento e eficiência computacional. Uma forma de incrementar o desempenho dos métodos iterativos é empregar uma técnica multigrid. Multigrid são uma classe de métodos que resolvem eficientemente um grande conjunto de equações algébricas através da aceleração da convergência de métodos iterativos. Considerando que a resolução de sistemas de equações de problemas realísticos pode requerer grande capacidade de processamento e de armazenamento, torna-se imprescindível o uso de ambientes computacionais de alto desempenho. Uma das abordagens encontradas na literatura técnica para a resolução de sistemas de equações em paralelo é aquela que emprega métodos de decomposição de domínio (MDDs). Os MDDs são baseados no particionamento do domínio computacional em subdomínios, de modo que a solução global do problema é obtida pela combinação apropriada das soluções obtidas em cada um dos subdomínios Assim, neste trabalho são disponibilizados diferentes métodos de resolução paralela baseado em decomposição de domínio, utilizando técnicas multigrid para a aceleração da solução de sistemas de equações lineares. Para cada método, são apresentados dois estudos de caso visando a validação das implementações. Os estudos de caso abordados são o problema da difusão de calor e o modelo de hidrodinâmica do modelo UnHIDRA. Os métodos implementados mostraram-se altamente paralelizáveis, apresentando bons ganhos de desempenho. Os métodos multigrid mostraram-se eficiente na aceleração dos métodos iterativos, já que métodos que utilizaram esta técnica apresentaram desempenho superior aos métodos que não utilizaram nenhum método de aceleração.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho tem como objetivo estudar e avaliar técnicas para a aceleração de algoritmos de análise de timing funcional (FTA - Functional Timing Analysis) baseados em geração automática de testes (ATPG – Automatic Test Generation). Para tanto, são abordados três algoritmos conhecidos : algoritmo-D, o PODEM e o FAN. Após a análise dos algoritmos e o estudo de algumas técnicas de aceleração, é proposto o algoritmo DETA (Delay Enumeration-Based Timing Analysis) que determina o atraso crítico de circuitos que contêm portas complexas. O DETA está definido como um algoritmo baseado em ATPG com sensibilização concorrente de caminhos. Na implementação do algoritmo, foi possível validar o modelo de computação de atrasos para circuitos que contêm portas complexas utilizando a abordagem de macro-expansão implícita. Além disso, alguns resultados parciais demonstram que, para alguns circuitos, o DETA apresenta uma pequena dependência do número de entradas quando comparado com a dependência no procedimento de simulação. Desta forma, é possível evitar uma pesquisa extensa antes de se encontrar o teste e assim, obter sucesso na aplicação de métodos para aceleração do algoritmo.