17 resultados para Algoritmos iterativos de reconstrução

em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nesse trabalho apresentamos algoritmos adaptativos do M´etodo do Res´ıduo M´ınimo Generalizado (GMRES) [Saad e Schultz, 1986], um m´etodo iterativo para resolver sistemas de equa¸c˜oes lineares com matrizes n˜ao sim´etricas e esparsas, o qual baseia-se nos m´etodos de proje¸c˜ao ortogonal sobre um subespa¸co de Krylov. O GMRES apresenta uma vers˜ao reinicializada, denotada por GMRES(m), tamb´em proposta por [Saad e Schultz, 1986], com o intuito de permitir a utiliza¸c˜ao do m´etodo para resolver grandes sistemas de n equa¸c˜oes, sendo n a dimens˜ao da matriz dos coeficientes do sistema, j´a que a vers˜ao n˜ao-reinicializada (“Full-GMRES”) apresenta um gasto de mem´oria proporcional a n2 e de n´umero de opera¸c˜oes de ponto-flutuante proporcional a n3, no pior caso. No entanto, escolher um valor apropriado para m ´e dif´ıcil, sendo m a dimens˜ao da base do subespa¸co de Krylov, visto que dependendo do valor do m podemos obter a estagna¸c˜ao ou uma r´apida convergˆencia. Dessa forma, nesse trabalho, acrescentamos ao GMRES(m) e algumas de suas variantes um crit´erio que tem por objetivo escolher, adequadamente, a dimens˜ao, m da base do subespa¸co de Krylov para o problema o qual deseja-se resolver, visando assim uma mais r´apida, e poss´ıvel, convergˆencia. Aproximadamente duas centenas de experimentos foram realizados utilizando as matrizes da Cole¸c˜ao Harwell-Boeing [MCSD/ITL/NIST, 2003], que foram utilizados para mostrar o comportamento dos algoritmos adaptativos. Foram obtidos resultados muito bons; isso poder´a ser constatado atrav´es da an´alise das tabelas e tamb´em da observa ¸c˜ao dos gr´aficos expostos ao longo desse trabalho.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo desta dissertação é a paralelização e a avaliação do desempenho de alguns métodos de resolução de sistemas lineares esparsos. O DECK foi utilizado para implementação dos métodos em um cluster de PCs. A presente pesquisa é motivada pela vasta utilização de Sistemas de Equações Lineares em várias áreas científicas, especialmente, na modelagem de fenômenos físicos através de Equações Diferenciais Parciais (EDPs). Nessa área, têm sido desenvolvidas pesquisas pelo GMC-PAD – Grupo de Matemática da Computação e Processamento de Alto Desempenho da UFRGS, para as quais esse trabalho vem contribuindo. Outro fator de motivação para a realização dessa pesquisa é a disponibilidade de um cluster de PCs no Instituto de Informática e do ambiente de programação paralela DECK – Distributed Execution and Communication Kernel. O DECK possibilita a programação em ambientes paralelos com memória distribuída e/ou compartilhada. Ele está sendo desenvolvido pelo grupo de pesquisas GPPD – Grupo de Processamento Paralelo e Distribuído e com a paralelização dos métodos, nesse ambiente, objetiva-se também validar seu funcionamento e avaliar seu potencial e seu desempenho. Os sistemas lineares originados pela discretização de EDPs têm, em geral, como características a esparsidade e a numerosa quantidade de incógnitas. Devido ao porte dos sistemas, para a resolução é necessária grande quantidade de memória e velocidade de processamento, característicos de computações de alto desempenho. Dois métodos de resolução foram estudados e paralelizados, um da classe dos métodos diretos, o Algoritmo de Thomas e outro da classe dos iterativos, o Gradiente Conjugado. A forma de paralelizar um método é completamente diferente do outro. Isso porque o método iterativo é formado por operações básicas de álgebra linear, e o método direto é formado por operações elementares entre linhas e colunas da matriz dos coeficientes do sistema linear. Isso permitiu a investigação e experimentação de formas distintas de paralelismo. Do método do Gradiente Conjugado, foram feitas a versão sem précondicionamento e versões pré-condicionadas com o pré-condicionador Diagonal e com o pré-condicionador Polinomial. Do Algoritmo de Thomas, devido a sua formulação, somente a versão básica foi feita. Após a paralelização dos métodos de resolução, avaliou-se o desempenho dos algoritmos paralelos no cluster, através da realização de medidas do tempo de execução e foram calculados o speedup e a eficiência. As medidas empíricas foram realizadas com variações na ordem dos sistemas resolvidos e no número de nodos utilizados do cluster. Essa avaliação também envolveu a comparação entre as complexidades dos algoritmos seqüenciais e a complexidade dos algoritmos paralelos dos métodos. Esta pesquisa demonstra o desempenho de métodos de resolução de sistemas lineares esparsos em um ambiente de alto desempenho, bem como as potencialidades do DECK. Aplicações que envolvam a resolução desses sistemas podem ser realizadas no cluster, a partir do que já foi desenvolvido, bem como, a investigação de précondicionadores, comparação do desempenho com outros métodos de resolução e paralelização dos métodos com outras ferramentas possibilitando uma melhor avaliação do DECK.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A equação de complexidade de um algoritmo pode ser expressa em termos de uma equação de recorrência. A partir destas equações obtém-se uma expressão assintótica para a complexidade, provada por indução. Neste trabalho, propõem-se um esquema de solução de equações de recorrência usando equações características que são resolvidas através de um "software" de computação simbólica, resultando em uma expressão algébrica exata para a complexidade. O objetivo é obter uma forma geral de calcular a complexidade de um algoritmo desenvolvido pelo método Divisão-e-Conquista.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho apresenta novos algoritmos para o roteamento de circuitos integrados, e discute sua aplicação em sistemas de síntese de leiaute. As interconexões têm grande impacto no desempenho de circuitos em tecnologias recentes, e os algoritmos propostos visam conferir maior controle sobre sua qualidade, e maior convergência na tarefa de encontrar uma solução aceitável. De todos os problemas de roteamento, dois são de especial importância: roteamento de redes uma a uma com algoritmos de pesquisa de caminhos, e o chamado roteamento de área. Para o primeiro, procura-se desenvolver um algoritmo de pesquisa de caminhos bidirecional e heurístico mais eficiente, LCS*, cuja aplicação em roteamento explora situações específicas que ocorrem neste domínio. Demonstra-se que o modelo de custo influencia fortemente o esforço de pesquisa, além de controlar a qualidade das rotas encontradas, e por esta razão um modelo mais preciso é proposto. Para roteamento de área, se estuda o desenvolvimento de uma nova classe de algoritmos sugerida em [JOH 94], denominados LEGAL. A viabilidade e a eficiência de tais algoritmos são demonstradas com três diferentes implementações. Devem ser também estudados mecanismos alternativos para gerenciar espaços e tratar modelos de grade não uniforme, avaliando-se suas vantagens e sua aplicabilidade em outros diferentes contextos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho faz uma análise ampla sobre os algoritmos de posicionamento. Diversos são extraídos da literatura e de publicações recentes de posicionamento. Eles foram implementados para uma comparação mais precisa. Novos métodos são propostos, com resultados promissores. A maior parte dos algoritmos, ao contrário do que costuma encontrar-se na literatura, é explicada com detalhes de implementação, de forma que não fiquem questões em aberto. Isto só possível pela forte base de implementação por trás deste texto. O algorítmo de Fidduccia Mateyeses, por exemplo, é um algorítmo complexo e por isto foi explicado com detalhes de implementação. Assim como uma revisão de técnicas conhecidas e publicadas, este trabalho oferece algumas inovações no fluxo de posicionamento. Propõe-se um novo algorítimo para posicionamento inicial, bem como uma variação inédita do Cluster Growth que mostrta ótimos resultados. É apresentada uma série de evoluções ao algorítmo de Simulated Annealling: cálculo automático de temperatura inicial, funções de perturbação gulosas (direcionadas a força), combinação de funções de perturbação atingindo melhores resultados (em torno de 20%), otimização no cálculo de tamanho dos fios (avaliação das redes modificadas e aproveitamento de cálculos anteriores, com ganhos em torno de 45%). Todas estas modificações propiciam uma maior velocidade e convergência do método de Simulated Annealling. É mostrado que os algorítmos construtivos (incluindo o posicionador do Tropic, baseado em quadratura com Terminal Propagation) apresentam um resultado pior que o Simulated Annealling em termos de qualidade de posicionamento às custas de um longo tempo de CPD. Porém, o uso de técnicas propostas neste trabalho, em conjunto com outras técnicas propostas em outros trabalhos (como o trabalho de Lixin Su) podem acelerar o SA, de forma que a relação qualidade/tempo aumente.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho foram estudadas cinzas de carvão do tipo sílico-aluminosas e sulfatadas. As primeiras são aquelas obtidas normalmente pela queima do carvão acima de 850 °C. As cinzas sulfatadas estudadas são aquelas obtidas pela combustão, a 850 °C, do carvão em presença de calcário o qual retém o enxofre, liberado na combustão, na forma de anidrita (CaSO4). As cinzas sulfatadas foram classificadas de acordo com as misturas que as deram origem em “sulfocalcíticas”, “sulfodolomíticas” e “sulfocalcocauliníticas”. Estas cinzas foram obtidas, respectivamente, da combustão de misturas de carvão e calcita, de carvão e dolomita e de carvão, calcita e caulim. Os minerais estudados provêm do Rio Grande do Sul e todas análises foram efetuadas na École des Mines d’Alés (França). Assim, se estudaram cinzas de carvão, de calcário (calcítico e dolomítico), de caulim e de misturas destes a fim correlacionar as cinzas obtidas aos minerais que as deram origem. A reconstrução mineralógica destes materiais foi possível graças ao cruzamento de várias técnicas de análise tais como: método dos ajustes dosados, difração e fluorescência de raios X, determinação da perda ao fogo, densidade, calcimetria, termogravimetria, microscopia ótica e eletrônica etc. O carvão de Candiota é constituído por uma fase amorfa (52 %), quartzo (20 %), caulinita (16 %), muscovita (8 %), pirita (3 %), dolomita (1 %) e hematita (< 1 %). O caulim apresenta caulinita (80,6 %), muscovita (9,8 %), albita (6,8 %) e hematita (1,2 %) O calcário dolomítico possui calcita (42,8 %), antigorita (34,1 %), magnesita (11,7 %), dolomita (10,7 %), flogopita (3 %), caulinita (1,8 %) e quartzo (0,7 %). O calcário calcítico contém calcita (86,1 %), dolomita (12,2 %), quartzo (3,6 %), caulinita (0,7 %) e muscovita (0,4 %). As cinzas “sílico-aluminosas” são compostas por hematita e sílica. As cinzas sulfatadas são compostas por muscovita, quartzo, anidrita, guelenita, cal e hematita. As cinzas “sulfodolomíticas” apresentam, além destas fases, a periclasita. Foram realizados alguns ensaios de hidratação com cinzas “sílico-aluminosas”, “sulfocalcíticas” e “sulfocalcocauliníticas”. Após 28 dias de hidratação as cinzas “sílicoaluminosas” não sofreram alterações e a difração de raios X evidenciou, principalmente, o quartzo e a hematita. As cinzas sulfatadas com apenas 2 dias de hidratação, ou seja, antes do período de “pega” do cimento, apresentaram a formação de silicatos de cálcio hidratados (CSH) e etringita (primária). Estes dois compostos melhoram as propriedades mecânicas das cinzas. Após 28 dias de hidratação a etringita desapareceu em favor da formação da gipsita e de mais silicatos de cálcio hidratados. Os resultados mostraram que as cinzas sulfatadas têm propriedades físicas; superfície (específica, Blaine, BET), volume poroso e índice de aglomeração; e químicas; CSH e etringita; mais interessantes que as cinzas sílico-aluminosas. Os resultados indicam que as cinza sulfatadas têm um grande potencial de aproveitamento.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A análise de um algoritmo tem por finalidade melhorar, quando possível, seu desempenho e dar condições de poder optar pelo melhor, dentre os algoritmos existentes, para resolver o mesmo problema. O cálculo da complexidade de algoritmos é muito dependente da classe dos algoritmos analisados. O cálculo depende da função tamanho e das operações fundamentais. Alguns aspectos do cálculo da complexidade, entretanto, não dependem do tipo de problema que o algoritmo resolve, mas somente das estruturas que o compõem, podendo, desta maneira, ser generalizados. Com base neste princípio, surgiu um método para o cálculo da complexidade de algoritmos no pior caso. Neste método foi definido que cada estrutura algorítmica possui uma equação de complexidade associada. Esse método propiciou a análise automática da complexidade de algoritmos. A análise automática de algoritmos tem como principal objetivo tornar o processo de cálculo da complexidade mais acessível. A união da metodologia para o pior caso, associada com a idéia da análise automática de programas, serviu de motivação para o desenvolvimento do protótipo de sistema ANAC, que é uma ferramenta para análise automática da complexidade de algoritmos não recursivos. O objetivo deste trabalho é implementar esta metodologia de cálculo de complexidade de algoritmos no pior caso, com a utilização de técnicas de construção de compiladores para que este sistema possa analisar algoritmos gerando como resultado final a complexidade do algoritmo dada em ordens assintóticas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A presente tese é o resultado final de um trabalho prospectivo evolutivo que buscou apresentar uma nova filosofia de tratamento na instabilidade femoropatelar, voltada para a reconstrução anatômica do ligamento patelofemoral medial. Essa abordagem terapêutica mostrou-se extremamente eficiente, com poucas complicações e com uma recuperação bastante rápida, o que permite um retorno às atividades profissionais ou discentes dos pacientes num espaço de tempo mais curto dos que nas técnicas convencionais. Em um primeiro trabalho foi realizada a reconstrução do ligamento patelofemoral medial (LPFM) com uso de enxerto de poliéster, e neste foi utilizado enxerto livre do tendão do semitendinoso. Como não houve diferença significativa entre os dois, concluiu-se que o princípio defendido de reconstrução do ligamento patelofemoral mediaal é mais importante que a escolha do enxerto a ser utilizado.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As possibilidades das metodologias informacionais para a Sociologia tornam-se problemáticas, pois ela se encontra imersa na sociedade do conhecimento, cuja novidade principal é a de que a informação está envolvida numa estruturação reflexiva e comunicacional. As metodologias de pesquisa do conhecimento sociológico, vinculadas ao mundo da informação digital computável, implicam desafios, sobretudo diante das novas modulagens relacionadas à produção e à descoberta de conhecimentos suportados por computadores. O mundo sociológico apresenta-se, cada vez mais, conectado à reflexividade do conhecimento, assim, a decifração da esfinge informacional pode vir a ser uma grande contribuição da Sociologia à compreensão tanto da produção do conhecimento dessa área, como da vida social contemporânea. Urge, nesse sentido, que a Sociologia caminhe em direção à dupla competência sociológica (Sociologia e Informática) para a formação dos novos cientistas e pesquisadores sociais. O objetivo principal desta tese é verificar a situação da atual interface entre os(as) sociólogos(as) brasileiros(as) e a Informática. Busca-se, também, identificar as implicações metodológicas advindas da interface entre Informática e Sociologia na produção do saber acadêmico, assim como apontar algumas perspectivas desafiadoras para a dupla competência sociológica tanto no tocante à investigação como à produção do seu próprio saber. Inicia-se com parte da história da informação digital, especificando-se e precisando-se seu conceito. Metodologicamente, realizou-se uma pesquisa em nível nacional, através da Internet, visando-se identificar o impacto da Informática na produção do conhecimento sociológico no Brasil. Para tanto, utilizaram-se um programa questionário (software criado para esta tese) e recursos de banco de dados relacionais. Pergunta-se se a adoção de múltiplos procedimentos da informação computada está ou não permitindo a superação das velhas antinomias do tratamento informacional e afirmando um novo padrão de produção e de trabalho científico que se poderia denominar sociologia informacional. Quer-se, assim, afirmar que, diferentemente dos artefatos e instrumentos de elevada amplificação muscular e/ou apenas sensória, a informação digital computável potencializa mais efetivamente a amplificação lógico-cognitiva como o compartilhamento de memória de longo prazo, a integração de suportes recursivos sobre inferência numéricas ou miméticas, a recuperação parametrizada de dados e informações, o compartilhamento de cenários analíticos de simulações e o apoio a descobertas de conhecimento sociológico.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho procuramos analisar alguns métodos iterativos e os processos de aceleração na solução lineares grandes e esparsos, associando o uso de alguns pré-condicionadores, tais como os métodos de fatoração incompleta. De forma mais específica, nos detivemos no estudo deos métodos de fatoração incompleta LU, ou ILU, e o método de Cholesky incompleto. Para isso procuramos antes definir algumas especificidades sobre esses métodos, tais como, crtérios de existência, limitação. Alguns fatores analisam tais problemas e sugerem algumas técnicas de conserto, ou seja, algumas maneiras de eliminar tais falhas para que os métodos de iteração possam ser utlizados para determinar soluções mais próximas da solução real. Procedemos a uma revisão teórica de alguns dos métodos iterativos, dos pré-condicionadores. Jacobi, fatoração incompleta LU e fatoração incompleta de Cholesky e a sua associação com os métodos iterativos GMRES e Gradiente Conjugado. Utilizando os pré-condionadores associados aos métodos iterativos citados e fixando alguns parâmetros de parada, aplicamos algusn testes. Os resultados e a análise dos mesmos encontram-se neste trabalho.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Comunidades campestres foram descritas por Tipos Funcionais de Plantas (TFs). Utilizou-se um método politético de identificação de atributos macromorfológicos da vegetação e TFs com máxima correlação com as variáveis ambientais consideradas. Avaliaram-se os padrões de resposta da vegetação à herbivoria por rebanho bovino (Tipos Funcionais de Resposta: TFRs), e o efeito da estrutura das comunidades de TFs no processo seletivo do pastejo (Tipos Funcionais de Efeito: TFEs), bem como o grau de sobreposição dos tipos identificados. A alternância entre condições de exposição ao distúrbio ou exclusão do mesmo permitiu observar variações em padrões espaciais e temporais da composição da vegetação assim descrita. Buscou-se a reconstrução de uma série temporal única através de um método determinístico baseado na sobreposição espaço-temporal desses padrões. O experimento foi realizado num período de nove meses, tendo sido a estrutura da vegetação avaliada em função de dois períodos de pastejo. Observou-se uma diferença mais nítida na composição de TFRs entre as comunidades protegidas do pastejo e aquelas mais freqüentemente pastejadas. Comunidades protegidas apresentaram TFRs de maior porte, biomassa uniformemente distribuída e maiores proporções de caules lignificados, enquanto que uma tendência mais nítida em direção a uma concentração de biomassa aérea próxima do solo foi verificada com o aumento da frequência do distúrbio. A relação com um índice de intensidade de desfolha indicou a preferência por TFEs com pouca proporção de lâminas foliares senescentes, porte intermediário, e uma mínima proporção de biomassa aérea alocada a caules lignificados. Embora tenha sido verificada uma correspondência entre os atributos que descreveram os TFRs e TFEs, a correlação obtida entre as duas abordagens mostrou-se pouco satisfatória A série temporal obtida pelo método determinístico não apresentou padrões estáveis, possivelmente devido ao número insuficiente de séries parciais observadas, bem como ao curto período de avaliação das mesmas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta tese tem como objeto de estudo o processo de formação e desenvolvimento da Área de Estudos da Religião nas Ciências Sociais brasileiras. Visa formular uma interpretação sociológica desse processo, a partir da abordagem teórica configuracional proposta por N. Elias, sendo esta complementada pela utilização de outras categorias de análises, tais como Identidade Histórica, Identidade Social e Identidade Cognitiva (W. Lepenies), que permitem focalizar a dinâmica deste e incorporar a sua dimensão histórica. Conforme essa orientação teórica, o objeto de estudo é reconstruído, tendo como eixo de análise a direção que este apresenta no decorrer do seu desenvolvimento. Essa direção, nesta tese, foi definida como uma tendência que oscila entre diferenciação/integração/diferenciação de grupos de pesquisadores envolvidos no processo. A partir desta tendência, são identificados e caracterizados três períodos, sendo eles: primeiro período (pré-1964): Pioneiros e precursores – uma Identidade Histórica em construção; segundo período (pós-1964 até 1986): a construção de espaços institucionais (Identidade Social) e a redefinição da Identidade Cognitiva; terceiro período (1987 em diante): uma Área de Estudos da Religião nas Ciências Sociais diferenciada internamente. A formação da Área de Estudos da Religião é analisada também levando-se em consideração as transformações do campo religioso, das Ciências Sociais e das principais condições sócio-políticas da sociedade brasileira contemporânea. Nas Considerações Finais, formula-se uma síntese comparativa dos três períodos identificados na reconstrução do processo, que fornece uma visão de conjunto da evolução do mesmo. Logo se examina, igualmente em perspectiva comparativa, a formação e o desenvolvimento da Área de Estudos da Religião nas Ciências Sociais brasileiras em relação à trajetória desses estudos nos três países do Cone Sul aqui selecionados: Argentina, Chile e Uruguai. Por fim, salientam-se algumas considerações sobre a abordagem teórica adotada neste estudo. O material empírico utilizado provém de vinte entrevistas realizadas, neste estudo, com antropólogos e sociólogos dedicados ao estudo da religião e inseridos no campo das Ciências Sociais, de uma extensa revisão bibliográfica de livros, artigos publicados em revistas acadêmicas, teses de Doutoramento e dissertações de Mestrado, bem como de bancos de dados disponibilizados pela Internet.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho tem como objetivo estudar e avaliar técnicas para a aceleração de algoritmos de análise de timing funcional (FTA - Functional Timing Analysis) baseados em geração automática de testes (ATPG – Automatic Test Generation). Para tanto, são abordados três algoritmos conhecidos : algoritmo-D, o PODEM e o FAN. Após a análise dos algoritmos e o estudo de algumas técnicas de aceleração, é proposto o algoritmo DETA (Delay Enumeration-Based Timing Analysis) que determina o atraso crítico de circuitos que contêm portas complexas. O DETA está definido como um algoritmo baseado em ATPG com sensibilização concorrente de caminhos. Na implementação do algoritmo, foi possível validar o modelo de computação de atrasos para circuitos que contêm portas complexas utilizando a abordagem de macro-expansão implícita. Além disso, alguns resultados parciais demonstram que, para alguns circuitos, o DETA apresenta uma pequena dependência do número de entradas quando comparado com a dependência no procedimento de simulação. Desta forma, é possível evitar uma pesquisa extensa antes de se encontrar o teste e assim, obter sucesso na aplicação de métodos para aceleração do algoritmo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A área de pesquisa de testes não-destrutivos é muito importante, trabalhando com o diagnóstico e o monitoramento das condições dos componentes estruturais prevenindo falhas catastróficas. O uso de algoritmos genéticos para identificar mudanças na integridade estrutural através de mudanças nas respostas de vibração da estrutura é um método não-destrutivo que vem sendo pesquisado. Isto se deve ao fato de que são vantajosos em achar o mínimo global em situações difíceis de problemas de otimização, particularmente onde existem muitos mínimos locais como no caso de detecção de dano. Neste trabalho é proposto um algoritmo genético para localizar e avaliar os danos em membros estruturais usando o conceito de mudanças nas freqüências naturais da estrutura. Primeiramente foi realizada uma revisão das técnicas de detecção de dano das últimas décadas. A origem, os fundamentos, principais aspectos, principais características, operações e função objetivo dos algoritmos genéticos também são demonstrados. Uma investigação experimental em estruturas de materiais diferentes foi realizada a fim de se obter uma estrutura capaz de validar o método. Finalmente, se avalia o método com quatro exemplos de estruturas com danos simulados experimentalmente e numericamente. Quando comparados com técnicas clássicas de detecção dano, como sensibilidade modal, os algoritmos genéticos se mostraram mais eficientes. Foram obtidos melhores resultados na localização do que na avaliação das intensidades dos danos nos casos de danos propostos.