874 resultados para Complejidad computacional
Resumo:
401 p.
Resumo:
Uma dedução dos critérios de multicriticalidade para o cálculo de pontos críticos de qualquer ordem representa a formalização de ideias utilizadas para calcular pontos críticos e tricríticos e ainda amplia tais ideias. De posse desta dedução pode-se compreender os critérios de tricriticalidade e, com isso, através de uma abordagem via problema de otimização global pode-se fazer o cálculo de pontos tricríticos utilizando um método numérico adequado de otimização global. Para evitar um excesso de custo computacional com rotinas numéricas utilizou-se aproximações na forma de diferenças finitas dos termos que compõem a função objetivo. Para simular a relação P v - T optou-se pela equação de estado cúbica de Peng-Robinson e pela regra clássica de fluidos de van der Vaals, para modelagem do problema também se calculou os tensores de ordem 2, 3, 4 e 5 da função do teste de estabilidade. Os resultados obtidos foram comparados com dados experimentais e por resultados obtidos com outros autores que utilizaram métodos numéricos, equação de estado ou abordagem diferente das utilizadas neste trabalho.
Resumo:
Trocadores de calor são equipamentos muito utilizados na indústria de processos com o objetivo de modificar a temperatura e/ou o estado físico de correntes materiais. Uma rede de trocadores de calor pode ser definida como um grupo de trocadores de calor interligados, a fim de reduzir as necessidades de energia de um sistema. No entanto, durante a operação de uma rede, a eficiência térmica dos trocadores de calor diminui devido à deposição. Esse efeito promove o aumento dos custos de combustível e das emissões de carbono. Uma alternativa para mitigar este problema baseia-se no estabelecimento de uma programação das limpezas dos trocadores de calor durante a operação de rede. Este tipo de abordagem ocasiona uma situação na qual ocorre um conflito de escolha: a limpeza de um trocador de calor pode recuperar a sua eficiência térmica, mas implica custos adicionais, tais como, mão-de-obra, produtos químicos, etc. Além disso, durante a limpeza, o trocador de calor tem de ser contornado por uma corrente de by-pass, o que aumenta temporariamente o consumo de energia. Neste contexto, o presente trabalho tem como objetivo explorar diferentes técnicas de otimização envolvendo métodos estocásticos e heurísticos. Com este objetivo foi desenvolvido um conjunto de códigos computacionais integrados que envolvem a simulação pseudo-estacionária do comportamento da rede relacionado com incrustações e a otimização da programação das limpezas deste tipo de sistema. A solução do problema indica os períodos de tempo para a limpeza de cada trocador de calor. Na abordagem estocástica empregada, os parâmetros do algoritmo genético, como probabilidade de crossover e probabilidade de mutação, foram calibrados para o presente problema. A abordagem heurística desenvolvida se deu através da sequência do conjunto de movimentos zero, um e dois. De forma alternativa, desenvolveu-se a metodologia heurística recursiva na qual os conjuntos de movimentos um e dois foram empregados recursivamente. Também foi desenvolvida a abordagem híbrida que consistiu em diferentes combinações da metodologia estocástica e heurística. A análise comparativa entre as metodologias empregadas teve como objetivo avaliar a abordagem mais adequada para o presente problema da programação das limpezas em termos de função objetivo e esforço computacional. O desempenho da abordagem proposta foi explorado através de uma série de exemplos, incluindo uma refinaria real brasileira. Os resultados foram promissores, indicando que as técnicas de otimização analisadas neste trabalho podem ser abordagens interessantes para operações que envolvam redes de trocadores de calor. Dentre as abordagens de otimização analisadas, a metodologia heurística desenvolvida no presente trabalho apresentou os melhores resultados se mostrando competitiva frente às abordagens comparadas da literatura
Resumo:
O reconhecimento de padões é uma área da inteligência computacional que apoia a resolução de problemas utilizando ferramentas computacionais. Dentre esses problemas podem ser citados o reconhecimento de faces, a identificação de impressões digitais e a autenticação de assinaturas. A autenticação de assinaturas de forma automática tem sua relevância pois está ligada ao reconhecimento de indivíduos e suas credenciais em sistemas complexos e a questões financeiras. Neste trabalho é apresentado um estudo dos parâmetros do Dynamic Time Warping, um algoritmo utilizado para alinhar duas assinaturas e medir a similaridade existente entre elas. Variando-se os principais parâmetros desse algoritmo, sobre uma faixa ampla de valores, foram obtidas as médias dos resultados de erros na classificação, e assim, estas médias foram avaliadas. Com base nas primeiras avaliação, foi identificada a necessidade de se calcular um desses parâmetros de forma dinâmica, o gap cost, a fim de ajustá-lo no uso de uma aplicação prática. Uma proposta para a realização deste cálculo é apresentada e também avaliada. É também proposta e avaliada uma maneira alternativa de representação dos atributos da assinatura, de forma a considerar sua curvatura em cada ponto adquirido no processo de aquisição, utilizando os vetores normais como forma de representação. As avaliações realizadas durante as diversas etapas do estudo consideraram o Equal Error Rate (EER) como indicação de qualidade e as técnicas propostas foram comparadas com técnicas já estabelecidas, obtendo uma média percentual de EER de 3,47%.
Resumo:
Um grande desafio da atualidade é a preservação dos recursos hídricos, bem como o correto manejo dos mesmos, frente à expansão das cidades e às atividades humanas. A qualidade de um corpo hídrico é usualmente avaliada através da análise de parâmetros biológicos, físicos e químicos. O comportamento de tais parâmetros pode convenientemente ser simulado através de modelos matemáticos e computacionais, que surgem assim como uma ferramenta bastante útil, por sua capacidade de geração de cenários que possam embasar, por exemplo, tomadas de decisão. Nesta tese são discutidas técnicas de estimação da localização e intensidade de uma fonte de contaminante conservativo, hipoteticamente lançado na região predominantemente fluvial de um estuário. O lançamento aqui considerado se dá de forma pontual e contínua e a região enfocada compreendeu o estuário do Rio Macaé, localizado na costa norte do Rio de Janeiro. O trabalho compreende a solução de um problema direto, que consiste no transporte bidimensional (integrado na vertical) desse contaminante hipotético, bem como a aplicação de técnicas de problemas inversos. Para a solução do transporte do contaminante, aqui modelada pela versão 2D horizontal da equação de advecção-difusão, foram utilizados como métodos de discretização o Método de Elementos Finitos e o Método de Diferenças Finitas. Para o problema hidrodinâmico foram utilizados dados de uma solução já desenvolvida para estuário do Rio Macaé. Analisada a malha de acordo com o método de discretização, foram definidas a geometria do estuário e os parâmetros hidrodinâmicos e de transporte. Para a estimação dos parâmetros propostos foi utilizada a técnica de problemas inversos, com o uso dos métodos Luus-Jaakola, Algoritmo de Colisão de Partículas e Otimização por Colônia de Formigas para a estimação da localização e do método Seção Áurea para a estimação do parâmetro de intensidade da fonte. Para a definição de uma fonte, com o objetivo de propor um cenário experimental idealizado e de coleta de dados de amostragem, foi realizada a análise de sensibilidade quanto aos parâmetros a serem estimados. Como os dados de amostragem de concentração foram sintéticos, o problema inverso foi resolvido utilizando-os com e sem ruído, esse introduzido de forma artificial e aleatória. Sem o uso de ruído, os três métodos mostraram-se igualmente eficientes, com uma estimação precisa em 95% das execuções. Já com o uso de dados de amostragem com ruídos de 5%, o método Luus-Jaakola mostrou-se mais eficiente em esforço e custo computacional, embora todos tenham estimado precisamente a fonte em 80% das execuções. Considerando os resultados alcançados neste trabalho tem-se que é possível estimar uma fonte de constituintes, quanto à sua localização e intensidade, através da técnica de problemas inversos. Além disso, os métodos aplicados mostraram-se eficientes na estimação de tais parâmetros, com estimações precisas para a maioria de suas execuções. Sendo assim, o estudo do comportamento de contaminantes, e principalmente da identificação de fontes externas, torna-se uma importante ferramenta para a gestão dos recursos hídricos, possibilitando, inclusive, a identificação de possíveis responsáveis por passivos ambientais.
Resumo:
Esta tese propôs uma metodologia para detecção de áreas susceptíveis a deslizamentos de terra a partir de imagens aéreas, culminando no desenvolvimento de uma ferramenta computacional, denominada SASD/T, para testar a metodologia. Para justificar esta pesquisa, um levantamento sobre os desastres naturais da história brasileira relacionada a deslizamentos de terra e as metodologias utilizadas para a detecção e análise de áreas susceptíveis a deslizamentos de terra foi realizado. Estudos preliminares de visualização 3D e conceitos relacionados ao mapeamento 3D foram realizados. Estereoscopia foi implementada para visualizar tridimensionalmente a região selecionada. As altitudes foram encontradas através de paralaxe, a partir dos pontos homólogos encontrados pelo algoritmo SIFT. Os experimentos foram realizados com imagens da cidade de Nova Friburgo. O experimento inicial mostrou que o resultado obtido utilizando SIFT em conjunto com o filtro proposto, foi bastante significativo ao ser comparado com os resultados de Fernandes (2008) e Carmo (2010), devido ao número de pontos homólogos encontrados e da superfície gerada. Para detectar os locais susceptíveis a deslizamentos, informações como altitude, declividade, orientação e curvatura foram extraídas dos pares estéreos e, em conjunto com as variáveis inseridas pelo usuário, forneceram uma análise de quão uma determinada área é susceptível a deslizamentos. A metodologia proposta pode ser estendida para a avaliação e previsão de riscos de deslizamento de terra de qualquer outra região, uma vez que permite a interação com o usuário, de modo que este especifique as características, os itens e as ponderações necessárias à análise em questão.
Resumo:
Esta dissertação aplica a regularização por entropia máxima no problema inverso de apreçamento de opções, sugerido pelo trabalho de Neri e Schneider em 2012. Eles observaram que a densidade de probabilidade que resolve este problema, no caso de dados provenientes de opções de compra e opções digitais, pode ser descrito como exponenciais nos diferentes intervalos da semireta positiva. Estes intervalos são limitados pelos preços de exercício. O critério de entropia máxima é uma ferramenta poderosa para regularizar este problema mal posto. A família de exponencial do conjunto solução, é calculado usando o algoritmo de Newton-Raphson, com limites específicos para as opções digitais. Estes limites são resultados do princípio de ausência de arbitragem. A metodologia foi usada em dados do índice de ação da Bolsa de Valores de São Paulo com seus preços de opções de compra em diferentes preços de exercício. A análise paramétrica da entropia em função do preços de opções digitais sínteticas (construídas a partir de limites respeitando a ausência de arbitragem) mostraram valores onde as digitais maximizaram a entropia. O exemplo de extração de dados do IBOVESPA de 24 de janeiro de 2013, mostrou um desvio do princípio de ausência de arbitragem para as opções de compra in the money. Este princípio é uma condição necessária para aplicar a regularização por entropia máxima a fim de obter a densidade e os preços. Nossos resultados mostraram que, uma vez preenchida a condição de convexidade na ausência de arbitragem, é possível ter uma forma de smile na curva de volatilidade, com preços calculados a partir da densidade exponencial do modelo. Isto coloca o modelo consistente com os dados do mercado. Do ponto de vista computacional, esta dissertação permitiu de implementar, um modelo de apreçamento que utiliza o princípio de entropia máxima. Três algoritmos clássicos foram usados: primeiramente a bisseção padrão, e depois uma combinação de metodo de bisseção com Newton-Raphson para achar a volatilidade implícita proveniente dos dados de mercado. Depois, o metodo de Newton-Raphson unidimensional para o cálculo dos coeficientes das densidades exponenciais: este é objetivo do estudo. Enfim, o algoritmo de Simpson foi usado para o calculo integral das distribuições cumulativas bem como os preços do modelo obtido através da esperança matemática.
Resumo:
No presente trabalho, o modelo de identificação de danos apresentado por Stutz et al. (2005) é utilizado. A contribuição do presente trabalho consiste em avaliar alguns pontos da identificação de danos em vigas e, em seguida, expandir o modelo para identificar danos estruturais em placas. Uma avaliação do comportamento das frequências naturais e da matriz de flexibilidade para uma viga de Euler-Bernoulli simplesmente apoiada, na presença de danos simulados pelo parâmetro de coesão é realizada. Essa análise, permite também o conhecimento das regiões onde há maior sensibilidade ao dano, ajudando a traçar estratégias para melhorar a identificação de danos em regiões que sofrem poucas alterações na presença de falhas estruturais. Comparou-se o comportamento dos dois primeiros modos de vibração da viga simplesmente apoiada na presença de um dano estrutural, com os dois primeiros modos de vibração da estrutura intacta e corrompidos por ruído. Diversos métodos de localização de danos e de otimização são avaliados na tentativa de identificar os danos simulados através do campo de danos proposto por Stutz et al. (2005) na presença de dados ruidosos. Após a apresentação de resultados da identificação de danos obtidos para uma viga de Euler-Bernoulli simplesmente apoiada, uma análise do comportamento das frequências naturais e da matriz de flexibilidade de uma viga de Euler- Bernoulli engastada na presença de danos é apresentada, assim como os resultados de identificação de danos considerando-se diversos cenários e níveis de ruído. Uma importante contribuição do presente trabalho consiste em propor um método de identificação de danos via matriz de flexibilidade onde o campo de defeitos para a placa de Kirchoff é modelado via MEF. Uma análise do comportamento da matriz de flexibilidade devido à presença de danos na placa é apresentada, assim como os resultados numéricos da identificação de danos estruturais com e sem a presença de dados ruidosos. Com a finalidade de reduzir o custo computacional na identificação de danos em estruturas complexas, uma hibridização entre o método de otimização por enxame de particulas (PSO, do inglês, Particle Swarm Optimization) e o método de otimização Levenberg-Marquardt é proposta. Resultados numéricos da hibridização para uma estrutura do tipo placa são apresentados.
Resumo:
[ES] La estimación del sexo y la edad son esenciales para la identificación individual de restos humanos y para el conocimiento e interpretación de la variabilidad biológica del pasado. El objetivo de este trabajo es la elaboración de un protocolo metodológico de análisis morfológico y morfométrico, para la estimación del sexo en adultos y de la edad en subadultos y adultos. Las principales metodologías incluidas en este trabajo pueden emplearse en restos esqueléticos de procedencia europea. Se realizó una revisión bibliográfica en revistas de ámbito forense y antropológico a fin de reunir un conjunto de metodologías aplicables tanto a esqueletos completos como parciales. Finalmente, en la elección de los métodos incluidos en este protocolo se tuvieron en cuenta dos criterios: la bondad de ajuste y el grado de complejidad del método.
Resumo:
A engenharia geotécnica é uma das grandes áreas da engenharia civil que estuda a interação entre as construções realizadas pelo homem ou de fenômenos naturais com o ambiente geológico, que na grande maioria das vezes trata-se de solos parcialmente saturados. Neste sentido, o desempenho de obras como estabilização, contenção de barragens, muros de contenção, fundações e estradas estão condicionados a uma correta predição do fluxo de água no interior dos solos. Porém, como a área das regiões a serem estudas com relação à predição do fluxo de água são comumente da ordem de quilômetros quadrados, as soluções dos modelos matemáticos exigem malhas computacionais de grandes proporções, ocasionando sérias limitações associadas aos requisitos de memória computacional e tempo de processamento. A fim de contornar estas limitações, métodos numéricos eficientes devem ser empregados na solução do problema em análise. Portanto, métodos iterativos para solução de sistemas não lineares e lineares esparsos de grande porte devem ser utilizados neste tipo de aplicação. Em suma, visto a relevância do tema, esta pesquisa aproximou uma solução para a equação diferencial parcial de Richards pelo método dos volumes finitos em duas dimensões, empregando o método de Picard e Newton com maior eficiência computacional. Para tanto, foram utilizadas técnicas iterativas de resolução de sistemas lineares baseados no espaço de Krylov com matrizes pré-condicionadoras com a biblioteca numérica Portable, Extensible Toolkit for Scientific Computation (PETSc). Os resultados indicam que quando se resolve a equação de Richards considerando-se o método de PICARD-KRYLOV, não importando o modelo de avaliação do solo, a melhor combinação para resolução dos sistemas lineares é o método dos gradientes biconjugados estabilizado mais o pré-condicionador SOR. Por outro lado, quando se utiliza as equações de van Genuchten deve ser optar pela combinação do método dos gradientes conjugados em conjunto com pré-condicionador SOR. Quando se adota o método de NEWTON-KRYLOV, o método gradientes biconjugados estabilizado é o mais eficiente na resolução do sistema linear do passo de Newton, com relação ao pré-condicionador deve-se dar preferência ao bloco Jacobi. Por fim, há evidências que apontam que o método PICARD-KRYLOV pode ser mais vantajoso que o método de NEWTON-KRYLOV, quando empregados na resolução da equação diferencial parcial de Richards.
Resumo:
Em uma grande gama de problemas físicos, governados por equações diferenciais, muitas vezes é de interesse obter-se soluções para o regime transiente e, portanto, deve-se empregar técnicas de integração temporal. Uma primeira possibilidade seria a de aplicar-se métodos explícitos, devido à sua simplicidade e eficiência computacional. Entretanto, esses métodos frequentemente são somente condicionalmente estáveis e estão sujeitos a severas restrições na escolha do passo no tempo. Para problemas advectivos, governados por equações hiperbólicas, esta restrição é conhecida como a condição de Courant-Friedrichs-Lewy (CFL). Quando temse a necessidade de obter soluções numéricas para grandes períodos de tempo, ou quando o custo computacional a cada passo é elevado, esta condição torna-se um empecilho. A fim de contornar esta restrição, métodos implícitos, que são geralmente incondicionalmente estáveis, são utilizados. Neste trabalho, foram aplicadas algumas formulações implícitas para a integração temporal no método Smoothed Particle Hydrodynamics (SPH) de modo a possibilitar o uso de maiores incrementos de tempo e uma forte estabilidade no processo de marcha temporal. Devido ao alto custo computacional exigido pela busca das partículas a cada passo no tempo, esta implementação só será viável se forem aplicados algoritmos eficientes para o tipo de estrutura matricial considerada, tais como os métodos do subespaço de Krylov. Portanto, fez-se um estudo para a escolha apropriada dos métodos que mais se adequavam a este problema, sendo os escolhidos os métodos Bi-Conjugate Gradient (BiCG), o Bi-Conjugate Gradient Stabilized (BiCGSTAB) e o Quasi-Minimal Residual (QMR). Alguns problemas testes foram utilizados a fim de validar as soluções numéricas obtidas com a versão implícita do método SPH.
Resumo:
[ES] Análisis computacional de un modelo (además de su fenomenología emergente) de red asociativa tipo Hopfield que se ha modificado para de cabida a evidencias biológicas como es la del balanceado entre las neuronas excitadoras e inhibidoras en la corteza cerebral.
Resumo:
Esta pesquisa analisa o discurso de educação de qualidade nas políticas curriculares para a Educação Básica forjadas no Brasil, no período compreendido entre 2003 e 2011, na vigência do governo de Luís Inácio Lula da Silva e no início do governo Dilma Roussef, procurando entender os nexos estabelecidos entre currículo e qualidade. Para tanto, é investigado o contexto de produção dos textos da referida política o Ministério da Educação (MEC), por meio da leitura de cinquenta e sete documentos assinados e/ou encomendados pela Secretaria de Educação Básica (SEB), pelo Conselho Nacional de Educação (CNE) e pelo Instituto Nacional de Estudos e Pesquisas Educacionais (INEP), os quais constituíram um corpus de estudo para esta pesquisa. Tal leitura tem como ferramenta de entrada e organização dos textos o programa computacional WordSmith Tools (versão 5), a partir do qual foi possível focar em significantes identificados como condutores dos sentidos de qualidade. A análise desse corpus de estudo é relacionada ainda aos programas de governo divulgados pelo Partido dos Trabalhadores na ocasião das campanhas eleitorais de 2002, 2006 e 2010, com vistas a uma maior compreensão do contexto político partidário ao qual a política curricular se conecta. A pesquisa se fundamenta na Teoria do Discurso de Ernesto Laclau, articulada às teorias do currículo produzidas por Alice Lopes e Elizabeth Macedo e à abordagem do ciclo de políticas de Stephen Ball e colaboradores. Com essa filiação teórica entende-se as políticas de currículo como produção cultural discursiva em múltiplos contextos, marcada pela contingência do social. A tese apresentada é a de que, na política Lula/Dilma, o significante educação de qualidade é tendencialmente vazio, representando, no que se refere ao currículo, tanto demandas por um ensino voltado para a distribuição igualitária do conhecimento, visto como possibilidade de promover a justiça social, quanto demandas por um ensino voltado para resultados estipulados e mensurados por meio de sistemas de avaliação nacional que atestam sua eficiência e que representam o discurso da qualidade que se pretende total, segundo o qual a educação é um investimento que precisa dar retornos. A equivalência entre demandas, aparentemente, antagônicas, é possibilitada pelo vínculo que o significante qualidade estabelece com a demanda por justiça social, ao ser adjetivado como social, dando origem ao discurso da qualidade social. A política de qualidade social da educação, portanto, constrói um discurso de promoção da justiça social por meio do currículo comum e da centralidade do conhecimento (verificável), lançando mão do vocabulário das perspectivas críticas e ao mesmo tempo utilizando-se de ações das perspectivas instrumentais, que reduz o currículo às dimensões instrucionais. São, portanto, duas cadeias de equivalência em disputa no cenário educacional: a cadeia da qualidade social, representada pelo projeto de poder Lula/Dilma, que se justifica pela demanda da justiça social e opera a ressignificação das lógicas da centralização curricular e suas formas de avaliar, e a cadeia da qualidade que se pretende total, representada pelo projeto de poder FHC, que condiciona a educação às demandas de produtividade do mercado
Resumo:
Este é um texto que se constrói sobre uma linha frágil, contraditória talvez. Acredita na impossibilidade de transmitir uma experiência narrada, mas que, ao mesmo tempo, tenta fazer-se experiência em certo tipo de narração. Um desafio; um risco que corremos ao escrever sobre os efeitos das práticas de filosofia com crianças da Escola Municipal Pedro Rodrigues do Carmo, de Duque de Caxias, RJ,envolvidas com o projeto de extensão universitária 'Em Caxias, a filosofia em-caixa?A escola pública aposta no pensamento', coordenada pelo professor Walter Omar Kohan e desenvolvido pelo Núcleo de Estudos Filosóficos da Infância (NEFI) da Universidade do Estado do Rio de Janeiro (UERJ). Como professor envolvido comeste projeto desde 2009, pude notar alguns aspectos nestas práticas que apontavam indícios de que uma outra relação com os tempos, os saberes e as infâncias eram possíveis na complexidade cotidiana de uma escola. Tomando tais indícios como pistas de uma investigação, buscou-se compreender como estes temas se relacionavam com a escola e com os sujeitos formados por ela. A opção estética para este texto foi apresentá-lo como uma experiência de filosofia, partindo de uma 'disposição inicial', onde se apresenta de maneira leve as propostas deste escrito;passando pela 'vivência de um texto', onde apresentar-se-á o projeto 'Em Caxias, a filosofia em-caixa?' como texto a ser experienciado; rumando para uma 'problematização', de onde se levantam questões acerca deste texto; passando para a 'escolha de questões' a serem abordadas; indo, pois, para o 'diálogo' com os autores acerca dos temas eleitos e finalizando com um momento que chamamos de 'para continuar pensando', que de maneira alguma representa o fim derradeiro de uma questão. Para este diálogo, foram convidados W. Kohan e suas percepções sobre a infância, M. Foucault e suas contribuições sobre as relações de saber/poder,e, a partir dele, se estabelece uma relação com Jorge Larrosa que se propõe a discutir a formação do sujeito e as possibilidades da filosofia e da educação.Partindo de referenciais teóricos distintos, mas encontrando pontos de convergências com estas discussões, temos o harendtiano Jan Masschelein e suas considerações sobre a profanação e a suspensão dos saberes e a dissonante voz de Jacques Rancière e suas proposições sobre emancipação e embrutecimento. A última parte deste escrito consiste nas considerações finais acerca das discussões e a ponta algumas possibilidades de construção de um espaço/tempo onde as relações entre sujeitos e saberes pode se dar de uma outra maneira.
Resumo:
Este trabalho de pesquisa tem por objetivo apresentar e investigar a viabilidade de um método numérico que contempla o paralelismo no tempo. Este método numérico está associado a problemas de condição inicial e de contorno para equações diferenciais parciais (evolutivas). Diferentemente do método proposto neste trabalho, a maioria dos métodos numéricos associados a equações diferencias parciais evolutivas e tradicionalmente encontrados, contemplam apenas o paralelismo no espaço. Daí, a motivação em realizar o presente trabalho de pesquisa, buscando não somente um método com paralelismo no tempo mas, sobretudo, um método viável do ponto de vista computacional. Para isso, a implementação do esquema numérico proposto está por conta de um algoritmo paralelo escrito na linguagem C e que utiliza a biblioteca MPI. A análise dos resultados obtidos com os testes de desempenho revelam um método numérico escalável e que exige pouco nível de comunicação entre processadores.