82 resultados para Matemática. Modelagem matemática. Modelagem multiescala. Homogeneização. Meios porosos argilosos


Relevância:

100.00% 100.00%

Publicador:

Resumo:

O presente trabalho pesquisa o fenômeno da transferência simultânea de calor e umidade em solos insaturados que envolvem dutos enterrados. Estes dutos e o solo envolvente compõem o chamado sistema trocador-armazenador de calor no solo, que é muitas vezes utilizado como fonte complementar de aquecimento em estufas solares agrícolas. O funcionamento do sistema trocador-armazenador de calor é baseado na energia armazenada no solo durante os horários de máxima insolação, sendo que durante a noite parte desta energia é recuperada. Durante o dia o ar quente do meio interno da estufa solar é bombeado para dentro do feixe de tubos enterrados, que devolvem o ar mais frio na outra extremidade. Por outro lado, durante a noite o ar mais frio do meio interno da estufa é bombeado para dentro dos dutos, os quais efetuam troca térmica com o solo envolvente, que neste horário possui a temperatura mais elevada do sistema. O objetivo geral deste trabalho é resolver o problema transiente periódico e tridimensional da transferência simultânea de calor e umidade em solos não-saturados, que compõem o sistema trocador-armazenador de calor, utilizando a simulação numérica. Como objetivos secundários têm-se: o melhoramento do sistema de troca térmica, a quantificação da parcela de calor transportado pela difusão da umidade no solo e a análise dos campos de temperatura e de conteúdo de umidade, sendo que a análise dos campos de umidade permite verificar se existe formação de frentes de secagem significativas na vizinhança dos dutos durante os sucessivos períodos de aquecimento e resfriamento a que o sistema é submetido. Na resolução do problema em questão é empregado o modelo clássico de Philip e De Vries para a transferência simultânea de calor e massa em meios porosos insaturados Neste modelo, as equações de conservação de energia e massa obtidas trazem explicitamente as influências combinadas dos gradientes de temperatura e de conteúdo de umidade nos processos de transporte de calor e umidade. O sistema de equações diferenciais governantes do problema em questão é resolvido numericamente utilizando o Método dos Volumes Finitos e na discretização destas equações é usada uma integração temporal totalmente implícita. Todas as propriedades difusivas e termofísicas empregadas são consideradas variáveis com a temperatura e o conteúdo de umidade. Os dutos de seção transversal circular do sistema trocadorarmazenador de calor no solo, são modelados como dutos de seção transversal quadrada de área equivalente para que coordenadas cartesianas possam ser utilizadas nos modelos analisados. Neste trabalho são simulados quatro modelos computacionais associados ao sistema trocador-armazenador de calor no solo. Estes modelos são compostos por: um duto isolado, um duto com convecção, dois dutos isolados e dois dutos com convecção. A variação da temperatura do ar na entrada do(s) escoamento(s), assim como a temperatura do meio ambiente, para os modelos com convecção, é dada por uma senóide com uma amplitude de 14 ºC. No modelo de um duto isolado, são realizadas simulações utilizando várias combinações dos parâmetros do modelo em questão e os resultados, assim obtidos, são comparados com aqueles encontrados na literatura Visando melhorar o sistema de troca térmica dos modelos computacionais investigados, são selecionados valores e intervalos de valores recomendados para os parâmetros do modelo de um duto isolado. Para este modelo, com um diâmetro de 0,1 m, são escolhidos valores (ou intervalos de valores) recomendados: de 4 m/s para a velocidade do escoamento interno dentro do duto, de 0,25 para o conteúdo de umidade do solo, de 5 até 20 metros para o comprimento do duto e de 0,20 até 0,30 m para a distância entre centros do dutos. As simulações dos quatro modelos computacionais realizadas utilizando as várias combinações dos valores recomendados para os parâmetros destes modelos, mostrou que não há diferença significativa entre os valores de calor volumétrico armazenado no solo empregando a resolução acoplada das equações de energia e de massa e a resolução da equação da temperatura. Mesmo para os modelos de um e de dois dutos com convecção a diferença percentual encontrada foi insignificante. Finalmente, são apresentados e analisados os campos de temperatura e de conteúdo de umidade para os quatro modelos computacionais avaliados. Os perfis de temperatura e de conteúdo de umidade em diferentes horários mostraram que, durante o dia, o solo absorve calor dos escoamentos internos de ar e, uma vez que, junto à superfície dos dutos tem-se regiões de maior temperatura, há, conseqüentemente, uma migração da umidade nestas regiões. Durante a noite, ocorre o contrário, o solo fornece calor aos escoamentos dentro dos dutos, e, desta forma, as regiões próximas aos dutos apresentam níveis de conteúdo de umidade superiores ao inicial. Ainda, os perfis de conteúdo de umidade para todas as situações analisadas mostraram que, não há formação de frentes de secagem significativas nas proximidades dos dutos que compõem os quatro modelos computacionais avaliados.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Este trabalho visa desenvolver um modelo físico e matemático geral para os processos de extração sólido-líquido em fluxos contracorrente cruzados (CCC) que são utilizados na indústria de alimentos. Levam-se em consideração os processos principais (o transporte de massa entre as fases, difusão e convecção) envolvidos por todo o campo de extração, com uma abordagem bidimensional evolutiva, incluindo as zonas de carregamento, drenagem e as bandejas acumuladoras. O modelo matemático é formado por equações diferenciais parciais que determinam a alteração das concentrações nas fases poro e “bulk” em todo o campo de extração e equações diferenciais ordinárias (que refletem as evoluções das concentrações médias nas bandejas). As condições de contorno estabelecem as ligações entre os fluxos CCC da micela e matéria-prima e consideram, também, a influência das zonas de drenagem e carregamento. O algoritmo de resolução utiliza o método de linhas que transforma as equações diferenciais parciais em equações diferenciais ordinárias, que são resolvidas pelo método de Runge-Kutta. Na etapa de validação do modelo foram estabelecidos os parâmetros da malha e o passo de integração, a verificação do código com a lei de conservação da espécie e um único estado estacionário. Também foram realizadas a comparação com os dados experimentais coletados no extrator real e com o método de estágios ideais, a análise da influência de propriedades da matéria-prima nas características principais do modelo, e estabelecidos os dados iniciais do regime básico (regime de operação) Foram realizadas pesquisas numéricas para determinar: os regimes estacionário e transiente, a variação da constante de equilíbrio entre as fases, a variação do número de seções, a alteração da vazão de matéria-prima nas características de um extrator industrial e, também foram realizadas as simulações comparativas para diferentes tipos de matéria-prima (flocos laminados e flocos expandidos) usados amplamente na indústria. Além dessas pesquisas, o modelo também permite simular diferentes tipos de solventes. O estudo da capacidade de produção do extrator revelou que é necessário ter cuidado com o aumento da vazão da matéria-prima, pois um pequeno aumento desta pode causar grandes perdas de óleo tornando alto o custo da produção. Mesmo que ainda seja necessário abastecer o modelo com mais dados experimentais, principalmente da matéria-prima, os resultados obtidos estão em concordância com os fenômenos físico-químicos envolvidos no processo, com a lei de conservação de espécies químicas e com os resultados experimentais.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Os impactos sobre o meio ambiente, associados ao desenvolvimento de atividades pelo homem em uma bacia hidrográfica, estão fortemente inter-relacionados e têm, a cada dia, se tornado mais evidentes. Esta idéia motiva a concepção de uma gestão integrada dos recursos naturais em várias partes do mundo, inclusive em países em desenvolvimento como o Brasil. Modelos matemáticos de qualidade de água podem ser ferramentas úteis para a tomada de decisão no apoio à gestão de bacias hidrográficas. O planejamento e gestão dos recursos hídricos em um país de grande porte como o Brasil envolve, geralmente, bacias extensas, com um vasto conjunto de elementos naturais e antrópicos. Um modelo de qualidade de água deve permitir a representação da variabilidade espacial da região e, desta forma, a consideração de fontes difusas juntamente com fontes pontuais de poluição. O presente estudo analisou o impacto do desenvolvimento sobre a qualidade da água em uma bacia de grande extensão (bacia do rio Taquari-Antas, RS, com 26.500 km2), considerando a alternativa de aproveitamento hidrelétrico definida no inventário da bacia. Utilizou-se um modelo distribuído de simulação hidrológica e de qualidade de água aplicável principalmente a grandes bacias ( > 1.000 km2), o IPH-MGBq. Este modelo, desenvolvido no IPH, foi ajustado aos dados diários observados de vazão, no seu módulo de quantidade, e de concentração de OD, DBO, nitrogênio e fósforo totais e coliformes fecais, obtidos de coletas trimestrais, no módulo de qualidade. O modelo permite a análise temporal das condições hidrológicas e de qualidade da água de toda a bacia, discretizada por células, com trechos de rios e reservatórios. O modelo apresentou bom desempenho quanto à quantidade (vazões) e quanto aos perfis de concentração dos parâmetros de qualidade de água ao longo do Taquari- Antas, principalmente em termos de valores médios. Foi realizada uma análise de incertezas de alguns parâmetros e variáveis de entrada do modelo com relação à inerente incerteza existente na definição destes elementos. Esta metodologia demonstrou ser uma alternativa adequada à aplicação de modelos distribuídos de qualidade de água em bacias sem dados, sendo que os erros cometidos pelo modelo, em relação aos valores de concentração observados, foram aceitáveis para uma confiança de 95%. A simulação de alguns cenários de desenvolvimento na bacia do Taquari-Antas evidenciou a importância da avaliação conjunta de todos os elementos da bacia (fontes pontuais e difusas de poluição e da implantação de reservatórios) sobre a qualidade de suas águas. O IPH-MGBq mostrou ser uma ferramenta útil para a simulação de cenários de desenvolvimento em grandes bacias como base para a tomada de decisão na gestão dos recursos hídricos.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Um dos modos de avaliar a confiabilidade de um produto é verificando o comportamento das falhas em testes de uso contínuo. Contudo, essa informação não permite saber em que data a falha ocorrerá. Para resolver esse impasse abordamos na presente dissertação a modelagem dos tempos de falha ao longo do calendário. A modelagem desses tempos permite uma melhor administração do sistema de garantia e assistência técnica, além de possibilitar a empresa estimar e monitorar a confiabilidade do produto. Para proceder com a modelagem, é preciso, inicialmente, conhecer a distribuição de três variáveis: o tempo de vida do produto, em horas de uso contínuo; o tempo de uso do produto, em horas por dia; e o intervalo de tempo entre a manufatura e a venda, em dias. Conhecendo o comportamento dessa variáveis duas alternativas de solução são apresentadas: (a) Modelagem via simulação de Monte Carlo e (b) Modelagem através de solução matemática fechada. São discutidos os casos em que há um ou vários grupos de clientes que utilizam o produto.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Há aproximadamente meio século, as praias situadas a sotamar do Porto do Mucuripe, em Fortaleza, vem sofrendo intensos processos erosivos, creditados em grande parte à construção e ampliação deste porto. O fato é que o acentuado crescimento urbano da capital cearense ocasionou a fixação de dunas e a quebra do fluxo longitudinal de sedimentos em seu litoral, resultando no recuo da linha de costa e na necessidade de intervenção antrópica por meio de obras rígidas que viessem a garantir a preservação da infra-estrutura existente nos trechos mais afetados. Como conseqüência da fixação das praias, o suprimento de material sedimentar passou a ficar retido, enquanto que o potencial de transporte das ondas se preservou. A quebra deste equilíbrio dinâmico acarretou a transferência dos processos erosivos para as praias adjacentes, o que tornou-se um problema cada vez maior, pois as soluções adotadas nestas praias eram idênticas às anteriores. As conseqüências deste processo para uma cidade como Fortaleza, onde o turismo é uma das principais fontes de renda, são graves, dado que como resultado final, encontramos longos trechos de praias com a balneabilidade comprometida e perda de qualidade visual. O litoral situado a oeste da capital é limitado à direita pela foz do Rio Ceará e à esquerda por um promontório rochoso, onde situa-se a Ponta do Pecém. Este trecho compreende aproximadamente 30 km de praias arenosas, com granulometria média e fina, e com ondas incidindo sobre a costa de forma obliqua, o que as torna o principal mecanismo de transporte de sedimentos. A ocupação urbana concentra-se principalmente nas praias mais próximas a Fortaleza, onde observa-se ainda, o afloramento de rochas de praia e grande perda de material sedimentar, fornecendo indícios da transferência dos processos erosivos da orla marítima da capital para estas praias. Com a conclusão das obras do Porto do Pecém e de um pólo industrial que visa desfrutar da localização estratégica deste porto, é natural que ocorra uma intensificação nos processos de ocupação urbana das praias próximas à área. Tal constatação motivou um trabalho de modelagem da dinâmica desta zona com o objetivo de nortear um plano de uso e ocupação das áreas localizadas próximas à praia, de forma que se possa prever o comportamento da linha de costa e evitar que sejam repetidos certos equívocos como a construção em zonas de forte dinâmica e a fixação das fontes primárias de fornecimento de sedimentos, que são as dunas frontais. Dada a disponibilidade de dados, bons processadores e aos custos significativamente reduzidos da modelagem numérica, adotou-se o pacote GENESIS – RCPWAVE, que além de ser de domínio público, é a base do sistema de modelagem de linha de costa adotado pelo CERC (Coastal Engineering Research Center), U.S.A., para aplicações em costa aberta, em regiões sujeitas às intervenções humanas. A calibração do modelo se fez considerando as linhas de praia medidas em 1974 pela DHN e em 2001 com o uso de GPS. Os dados de onda utilizados foram obtidos por um ondógrafo direcional do tipo Waverider, instalado a uma profundidade de 18 metros nas proximidades da Ponta do Pecém. Os dados relativos ao modelo conceitual dos processos predominantes na região, como: contribuições externas, variação granulométrica e variações sazonais de perfis foram obtidos de levantamentos bibliográficos de trabalhos anteriores. Por último, informações relativas às estruturas existentes e seu comportamento, ao afloramento de formações rochosas e o último levantamento da linha de praia, foram obtidas através de trabalhos de campo. De uma forma geral, o comportamento previsto pelo modelo mostrou-se semelhante ao observado nos diferentes levantamentos. Considerando-se as limitações dos processos envolvidos no levantamento de dados, onde tanto a carta da DHN quanto o mapeamento por satélite estão sujeitos a imprecisões e ainda, que a série de dados confiáveis de ondas para a região possuía apenas dois anos, é importante notar que, em linhas gerais, a formulação matemática do modelo representou satisfatoriamente os processos envolvidos. Os resultados fornecidos possibilitam a extrapolação da evolução da linha de costa e indicam pontos de provável recuo ou avanço da praia, norteando a sua ocupação. A ferramenta gerada proporciona ainda a avaliação do impacto de intervenções por meio de estruturas rígidas ou engordamento de praia ao longo do tempo e gera uma estimativa dos valores de deriva litorânea para os diferentes trechos de praia, possibilitando avaliar os efeitos das intervenções nas praias adjacentes.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

A modelagem matemática é uma ferramenta que apresenta diversas vantagens no estudo de processos industriais como, por exemplo, entender e desenvolver tecnologias, avaliar o impacto de variáveis nas propriedades do produto, estudos de redução de custos de produção e de impacto ambiental. O objetivo deste trabalho é desenvolver e validar um modelo matemático para um reator de bancada de polimerização em lama de eteno, enfatizando o desenvolvimento do modelo cinético. O modelo do reator contemplou: 1) modelo de troca térmica; 2) modelo termodinâmico; 3) modelo de transferência de massa gás-líquido e 4)modelo cinético. Para uma melhor predição do modelo foi realizada a estimação de alguns dos seus parâmetros conforme uma metodologia que compreendeu a análise de sensibilidade paramétrica e das variáveis de entrada do modelo e os efeitos de um planejamento de experimentos para a geração dos dados experimentais. A metodologia utilizada mostrou-se eficiente na avaliação do modelo quanto as suas características de predição, ajudando na identificação de possíveis falhas e evidenciando as vantagens de uma adequada metodologia experimental. Uma etapa determinante para o processo de estimação dos parâmetros é a escolha dos dados de saída a utilizar para a estimativa de determinado parâmetro. A modelagem do reator experimental mostrou-se satisfatória em todos os aspectos do processo (troca térmica, cinética, termodinâmica e transferência de massa), pois o modelo prediz com precisão as características encontradas nos experimentos. Assim, este pode ser utilizado para avaliar o mecanismo reacional envolvido de forma a aproximar-se das reais características do processo.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

A lactação é um processo fisiológico complexo que ainda não foi compreendido na sua totalidade. Inúmeros fatores intervêm na síntese e secreção do leite, sendo os mais importantes a nutrição e o metabolismo endógeno dos nutrientes. A qualidade do leite é valorizada tanto pela sua composição química, como pelo conteúdo de células somáticas. No entanto, visando a comercialização do leite, as maiores mudanças e melhoras na qualidade podem ser atingidas através da manipulação da dieta dos animais, em especial em vacas leiteiras de alta produção. Avaliar os processos de absorção de alimentos, bem como o metabolismo catabólico e anabólico direcionado para a síntese do leite, têm sido uma grande preocupação na pesquisa de nutrição e bioquímica da produção animal. O principal objetivo da presente pesquisa foi gerar modelos matemáticos que pudessem explicar a participação de diferentes metabólitos sobre a composição química do leite. Neste intuito foram coletadas amostras de fluído ruminal, sangue, urina e leite de 140 vacas da raça Holandesa nas primeiras semanas de lactação e mantidas sob sistema semi-intensivo de produção e dieta controlada. Os animais foram selecionados de sistemas de produção no ecossistema do Planalto Médio de Rio Grande do Sul e foram amostrados em dois períodos climáticos críticos. No fluido ruminal foram avaliados o pH e o tempo de redução do azul de metileno. No sangue foram determinados os metabólitos: glicose, colesterol, β-hidroxibutirato (BHB), triglicerídeos, fructosamina, ácidos graxos não esterificados (NEFA), proteínas totais, albumina, globulina, uréia, creatinina, cálcio, fósforo e magnésio. As enzimas: aspartato amino transferase (AST), gama glutamil transferase (GGT) e creatina kinase (CK). Os hormônios: cortisol, insulina, triiodotironina (T3), tiroxina (T4), e leptina. Foi efetuado hemograma, para conhecer: hematócrito, hemoglobina, e contagem total e diferencial de células brancas. Na urina foram dosados: corpos cetônicos, pH e densidade. No leite foi determinada: proteína, gordura, lactose, sólidos totais, sólidos não gordurosos, contagem de células somáticas e uréia. Para a determinação de cada um dos metabólitos ou compostos foram usadas técnicas específicas validadas internacionalmente. Os diferentes valores obtidos constituíram os parâmetros básicos de entrada para a construção dos diversos modelos matemáticos executados para predizer a composição do leite. Mediante procedimentos de regressão linear múltipla algoritmo Stepwise, procedimentos de correlação linear simples de Pearson e procedimentos de análise computacional através de redes neurais, foram gerados diferentes modelos para identificar os parâmetros endógenos de maior relevância na predição dos diferentes componentes do leite. A parametrização das principais rotas bioquímicas, do controle endócrino, do estado de funcionamento hepático, da dinâmica ruminal e da excreção de corpos cetônicos aportou informação suficiente para predizer com diferente grau de precisão o conteúdo dos diferentes sólidos no leite. O presente trabalho é apresentado na forma de quatro artigos correspondentes aos parâmetros energéticos, de controle endócrino, modelagem matemática linear múltipla e predição através de Artificial Neural Networks (ANN).

Relevância:

50.00% 50.00%

Publicador:

Resumo:

No mundo todo busca-se a melhoria da qualidade das universidades através de avaliações periódicas. Também no Brasil tem sido realizado um grande esforço para a avaliação de universidades, especialmente as públicas. A departamentalização, vigente desde 1968, teve como conseqüência a separação entre o sistema administrativo e o acadêmico, com diferentes instâncias decisórias, diminuindo a integração e a flexibilidade da universidade. Essa situação vai de encontro ao que a sociedade atual está demandando: uma universidade dinâmica, que acompanhe as tendências tecnológicas, com alto nível de qualidade. Nesse contexto é que surge o interesse pela avaliação de departamentos de uma universidade, para verificar se estes, funcionando de uma maneira distinta, apresentam desempenhos similares. Mais especificamente, procura-se, neste trabalho: (1) definir, qualitativamente, os fatores relevantes para uma avaliação quantitativa multicriterial de departamentos acadêmicos de uma universidade; (2) efetuar comparação objetiva, via modelagem matemática, do desempenho dos departamentos; (3) diferenciar departamentos quanto à sua eficiência relativa; e (4) identificar os fatores que fazem departamentos serem mais (ou menos) eficientes. Focaliza-se a Universidade Federal do Rio Grande do Sul (UFRGS), de grande relevância no cenário nacional, com cursos de elevada qualidade, embora nem todos com o mesmo nível de excelência. O estudo emprega uma modelagem matemática, utilizando a técnica denominada Análise Envoltória de Dados (DEA, do inglês “Data Envelopment Analysis”). A aplicação da técnica aos departamentos da UFRGS oferece um mapeamento por eficiência relativa que, em vez de meramente criar uma escala ordinal (ranking), mostra o quanto um departamento é menos eficiente do que outro, em uma escala relacional, indicando, ainda, quais são os fatores que determinam eficiências distintas para os departamentos. Os resultados do estudo permitem: (1) destacar alguns pontos de ineficiência, que podem ser melhorados; (2) identificar características de departamentos mais eficientes, que possam ser repassadas aos menos eficientes, para que estes elevem seu desempenho; e (3) contribuir para a homogeneização da eficiência de todos os departamentos acadêmicos da UFRGS, com o intuito de aperfeiçoar a universidade como um todo.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

A Internet tem expandido a área de atuação das empresas aproximando mercados, empresas, pessoas e gerando mudanças significativas no paradigma das relações de trabalho. Juntamente, a chamada “revolução da informação” e a expansão da competitividade entre as empresas no mercado global ocasionaram um movimento de reformulação nas próprias estruturas administrativas das organizações de forma que a informação e o conhecimento passaram a ser vistos como recursos organizacionais tão importantes quanto a mão-de-obra ou a matéria-prima. Estas mudanças revolucionaram os mais diversos processos organizacionais, sobretudo aqueles relacionados com a gestão do conhecimento e da informação. Neste contexto, a problemática do gerenciamento de informação pode ser identificada como desafio crucial, o qual tem sido abordado tanto no cenário acadêmico quanto no cenário empresarial. Assim, o desenvolvimento de meios e métodos para operacionalização do gerenciamento de conteúdos é tema desta dissertação, que objetiva, através da aplicação da metodologia de pesquisa-ação, apresentar a descrição funcional um sistema modular para gerenciamento de conteúdo em ambiente web. Também são discutidos aspectos relacionados com a aplicação prática do sistema em diferentes websites, e realizada uma avaliação onde se constatou que os gestores estão satisfeitos, não apresentando dificuldade de uso, e ainda obtiveram resultados positivos com o uso da ferramenta.

Relevância:

40.00% 40.00%

Publicador:

Relevância:

40.00% 40.00%

Publicador:

Resumo:

As expectativas dos clientes são complexas e difíceis de serem alcançadas. Este trabalho apresenta uma abordagem desenvolvida para a avaliação dessas expectativas. A abordagem proposta utiliza grupos focalizados e contempla duas etapas: (i) levantamento das variáveis valorizadas pelo cliente, e (ii) quantificação do valor atribuído pelo cliente às diversas variáveis, conforme o nível de prestação de serviço oferecido. A abordagem proposta foi testada através de um estudo de caso realizado junto a uma empresa de manutenção de computadores. Além do levantamento do valor percebido pelo cliente, também foi feita a avaliação dos custos associados aos diferentes níveis de prestação do serviço. Isso possibilitou uma comparação direta entre esses dois elementos: valor percebido e custo da prestação do serviço. Após a comparação, foi possível identificar as alternativas de prestação de serviço que apresentam maior rentabilidade. Ao mesmo tempo, foram identificadas as etapas que necessitam um trabalho de redução de custo, uma vez que o custo dos serviços ultrapassa o valor percebido pelo cliente. A abordagem proposta permite a modelagem de algumas das principais preocupações das empresas de serviço: satisfação do cliente, valor percebido, custos dos serviços e rentabilidade.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

O objetivo desta dissertação é a paralelização e a avaliação do desempenho de alguns métodos de resolução de sistemas lineares esparsos. O DECK foi utilizado para implementação dos métodos em um cluster de PCs. A presente pesquisa é motivada pela vasta utilização de Sistemas de Equações Lineares em várias áreas científicas, especialmente, na modelagem de fenômenos físicos através de Equações Diferenciais Parciais (EDPs). Nessa área, têm sido desenvolvidas pesquisas pelo GMC-PAD – Grupo de Matemática da Computação e Processamento de Alto Desempenho da UFRGS, para as quais esse trabalho vem contribuindo. Outro fator de motivação para a realização dessa pesquisa é a disponibilidade de um cluster de PCs no Instituto de Informática e do ambiente de programação paralela DECK – Distributed Execution and Communication Kernel. O DECK possibilita a programação em ambientes paralelos com memória distribuída e/ou compartilhada. Ele está sendo desenvolvido pelo grupo de pesquisas GPPD – Grupo de Processamento Paralelo e Distribuído e com a paralelização dos métodos, nesse ambiente, objetiva-se também validar seu funcionamento e avaliar seu potencial e seu desempenho. Os sistemas lineares originados pela discretização de EDPs têm, em geral, como características a esparsidade e a numerosa quantidade de incógnitas. Devido ao porte dos sistemas, para a resolução é necessária grande quantidade de memória e velocidade de processamento, característicos de computações de alto desempenho. Dois métodos de resolução foram estudados e paralelizados, um da classe dos métodos diretos, o Algoritmo de Thomas e outro da classe dos iterativos, o Gradiente Conjugado. A forma de paralelizar um método é completamente diferente do outro. Isso porque o método iterativo é formado por operações básicas de álgebra linear, e o método direto é formado por operações elementares entre linhas e colunas da matriz dos coeficientes do sistema linear. Isso permitiu a investigação e experimentação de formas distintas de paralelismo. Do método do Gradiente Conjugado, foram feitas a versão sem précondicionamento e versões pré-condicionadas com o pré-condicionador Diagonal e com o pré-condicionador Polinomial. Do Algoritmo de Thomas, devido a sua formulação, somente a versão básica foi feita. Após a paralelização dos métodos de resolução, avaliou-se o desempenho dos algoritmos paralelos no cluster, através da realização de medidas do tempo de execução e foram calculados o speedup e a eficiência. As medidas empíricas foram realizadas com variações na ordem dos sistemas resolvidos e no número de nodos utilizados do cluster. Essa avaliação também envolveu a comparação entre as complexidades dos algoritmos seqüenciais e a complexidade dos algoritmos paralelos dos métodos. Esta pesquisa demonstra o desempenho de métodos de resolução de sistemas lineares esparsos em um ambiente de alto desempenho, bem como as potencialidades do DECK. Aplicações que envolvam a resolução desses sistemas podem ser realizadas no cluster, a partir do que já foi desenvolvido, bem como, a investigação de précondicionadores, comparação do desempenho com outros métodos de resolução e paralelização dos métodos com outras ferramentas possibilitando uma melhor avaliação do DECK.