981 resultados para Schwinger-Dyson, Equações de


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Embora a resistência às tecnologias seja um problema freqüente nas empresas, as pesquisas nessa área são fragmentadas, não-cumulativas e raras na literatura. Atualmente, a resistência à Educação a Distância [EAD] é um problema significativo, embora tal tecnologia de ensino tenha elevados índices de crescimento em vários países. O objetivo desta pesquisa foi identificar e analisar as principais dimensões de resistência à EAD na Educação Corporativa [EC]. Após revisão bibliográfica de temas como EC a Distância, Resistência às Tecnologias e Teoria Unificada de Aceitação e Uso de Tecnologias [UTAUT], foi desenvolvida e testada uma estrutura teórica que visou explicar a Resistência à EAD na EC. As hipóteses iniciais desta pesquisa defenderam que tal resistência é causada por oito fatores: Auto-Eficácia, Competência em TI, Expectativa de Desempenho, Expectativa de Esforço, Influência Social, Condições Facilitadoras, Interatividade e Comunicação Interna. A partir da técnica de Modelagem de Equações Estruturais, as hipóteses iniciais foram testadas e os resultados mostraram que, na amostra pesquisada, as dimensões Auto-Eficácia e Expectativa de Desempenho influenciam direta e positivamente a Resistência à EAD na EC, e as dimensões Expectativa de Esforço, Condições Facilitadoras e Interatividade são construtos antecedentes à Expectativa de Desempenho. Tais resultados podem servir de subsídio na tomada de decisões gerenciais sobre implementação e manutenção de cursos à distância. Do ponto de vista teórico, foi criada e validada uma escala de Resistência à EAD, bem como elaborada uma estrutura teórica de Resistência à EAD na EC – a estrutura READEC. Por fim, são apresentadas sugestões para futuras pesquisas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Apesar do aumento recente de publicações sobre o tema, a área de gestão da cadeia de suprimentos (supply chain management - SCM) ainda carece de desenvolvimento teórico e de comprovação empírica de seus benefícios. A ausência de consenso sobre a definição de gestão da cadeia de suprimentos e de construtos claramente definidos e a falta de fundamentação teórica para os estudos publicados representam uma dificuldade para que a efetividade da estratégia sobre o desempenho das empresas possa ser comprovada por praticantes e acadêmicos. Os resultados dos poucos estudos empíricos também não são conclusivos em função de diferenças significativas nos desenhos de pesquisa. Fundamentado na teoria dos custos de transação, visão baseada em recursos e na visão relacional e na revisão dos estudos empíricos recentes, este estudo apresenta um modelo conceitual integrativo dos antecedentes e conseqüências de SCM. Usando modelo de equação estrutural, a partir de uma amostra de 103 empresas no Brasil, são testados empiricamente modelos alternativos de mensuração para os aspectos precursores de supply chain management e para o desempenho operacional. Os resultados não permitem afirmar que existe um construto multidimensional que antecede SCM, mas sugerem a existência de aspectos independentes e correlacionados, como benevolência, credibilidade, apoio da alta gerência e relacionamentos internos. A comparação dos modelos de desempenho operacional fornece evidências de que esse construto pode ser tratado como uma variável latente de segunda ordem, mas também pode ser analisado em suas dimensões de custo, qualidade, flexibilidade e tempo. A mesma técnica permite a análise das relações entre os antecedentes e as conseqüências da gestão da cadeia de suprimentos. Os resultados não forneceram suporte para identificar os fatores motivadores de SCM, mas evidenciaram o impacto dessa estratégia no desempenho operacional e em suas diferentes dimensões

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho trata dos problemas de otimização de minimização de volume com restrição de flexibilidade e freqüência natural e minimização de flexibilidade com restrição de volume. Os problemas são resolvidos para estruturas bidimensionais e tridimensionais. As equações diferenciais de equilíbrio são solucionadas de forma aproximada através do método dos elementos finitos, em um subespaço de dimensão finita. O método utilizado no estudo é o da otimização topológica, o qual consiste em encontrar dentro de um domínio pré-existente uma distribuição ideal de material. São avaliadas técnicas como programação linear e critério de ótimo. Em ambos os casos são utilizadas sensibilidades calculadas analiticamente. Para a otimização com restrição modal, problemas característicos como autovalores repetidos e normalização do autovetor são tratados. Ferramentas usadas na otimização topológica, como método da continuação, penalização e filtragem são discutidos. São abordados também problemas e características inerentes ao processo de otimização topológica, tais como instabilidades de tabuleiros, dependência de malha e sensibilidade da topologia a diferentes condições de contorno. Os resultados obtidos permitem avaliações referentes à otimização topológica (geometrias, ou seja, topologias resultantes) sob diferentes condições, utilizando-se as ferramentas discutidas nesse trabalho.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A temática da ética empresarial vem despertando bastante interesse no meio acadêmico e também na sociedade em geral. Entre os que defendem o valor da ética empresarial, há aqueles que o fazem por uma questão de correção moral. Contudo, assoma na literatura de negócios uma visão mais instrumental da ética empresarial, identificando-a como fator de diferenciação de marcas, fidelidade do consumidor e conseqüente estabilidade dos fluxos financeiros. Aqui se empreendeu uma investigação empírica em cinco capitais brasileiras com o objetivo de relacionar a “Importância Atribuída pelo Consumidor ao Comportamento Ético Empresarial” e as “Expectativas do Consumidor acerca do Comportamento Ético Empresarial”, por um lado, e a “Propensão do Consumidor a Recompensar o Comportamento Ético Empresarial” e a “Propensão do Consumidor a Punir o Comportamento Antiético Empresarial”, por outro. Para tanto, adotaram-se as escalas propostas por CREYER e ROSS Jr. (1997). Concluiu-se: a) pela necessidade de revê- las, tornando-as mais adequadas ao cenário brasileiro; b) pela falta de relação causal entre os construtos do modelo proposto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese aborda o tema estratégia de marketing, enfocando sua formulação e implementação. Seus objetivos estão centrados no desenvolvimento de um modelo teórico de formação da estratégia de marketing, apresentando e definindo os elementos e as inter-relações necessárias para as empresas construírem e desenvolverem estratégias de marketing, bem como os antecedentes e resultados do processo da estratégia. A fim de atingir tais objetivos, elaborou-se um método que cumpre duas etapas: uma pesquisa exploratória e qualitativa e outra pesquisa descritiva e quantitativa. A etapa exploratória contempla a construção de um Modelo Conceitual Teórico preliminar, a partir de revisão bibliográfica, baseando-se especialmente em dois modelos de formação da estratégia de marketing, o de Menon et al. (1999) e o de Noble e Mokwa (1999), e de entrevistas em profundidade com executivos. A etapa descritiva, por sua vez, constitui-se de pesquisa em 200 empresas brasileiras, aplicando questionário construído e testado na etapa anterior, com a finalidade de validar o construto inicialmente construído, através da Modelagem de Equações Estruturais. A análise dos resultados da pesquisa demonstrou as variáveis significativas, bem como as suas relações para a construção do modelo de formação da estratégia de marketing. Neste modelo, verificou-se que os antecedentes da estratégia são formados por cultura organizacional inovadora e importância da estratégia. O processo de formulação e implementação é composto por comprometimento, comunicação e integração dos grupos de trabalho, alternativas estratégicas e ativos e competências organizacionais. Os resultados deste processo correspondem ao desenvolvimento de aprendizagem organizacional e de criatividade, como também, ao desempenho financeiro e de mercado. A inter-relação dessas variáveis resulta no modelo de formação da estratégia de marketing. Ainda, constatou-se que este modelo sofre influência de um ambiente externo turbulento, bem como do poder dos intermediários. Por fim, esta pesquisa colabora para o desenvolvimento da área de marketing no país, ao construir um modelo teórico para a formulação e implementação de estratégias, a partir da realidade empresarial brasileira.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O comportamento da curva que relaciona o rendimento dos títulos de desconto negociados no sistema financeiro nacional e o seu prazo de vencimento, ou seja, da estrutura a termo das taxas de juros, é minusciosamenteestudado através da análise de componentes. principais. Através de duas equações de regressão busca-se discutir as ·informações implícitas nas taxas de juros a termo sobre as taxas de juros e prêmios esperados para o futuro.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The evolution of integrated circuits technologies demands the development of new CAD tools. The traditional development of digital circuits at physical level is based in library of cells. These libraries of cells offer certain predictability of the electrical behavior of the design due to the previous characterization of the cells. Besides, different versions of each cell are required in such a way that delay and power consumption characteristics are taken into account, increasing the number of cells in a library. The automatic full custom layout generation is an alternative each time more important to cell based generation approaches. This strategy implements transistors and connections according patterns defined by algorithms. So, it is possible to implement any logic function avoiding the limitations of the library of cells. Tools of analysis and estimate must offer the predictability in automatic full custom layouts. These tools must be able to work with layout estimates and to generate information related to delay, power consumption and area occupation. This work includes the research of new methods of physical synthesis and the implementation of an automatic layout generation in which the cells are generated at the moment of the layout synthesis. The research investigates different strategies of elements disposition (transistors, contacts and connections) in a layout and their effects in the area occupation and circuit delay. The presented layout strategy applies delay optimization by the integration with a gate sizing technique. This is performed in such a way the folding method allows individual discrete sizing to transistors. The main characteristics of the proposed strategy are: power supply lines between rows, over the layout routing (channel routing is not used), circuit routing performed before layout generation and layout generation targeting delay reduction by the application of the sizing technique. The possibility to implement any logic function, without restrictions imposed by a library of cells, allows the circuit synthesis with optimization in the number of the transistors. This reduction in the number of transistors decreases the delay and power consumption, mainly the static power consumption in submicrometer circuits. Comparisons between the proposed strategy and other well-known methods are presented in such a way the proposed method is validated.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo da tese é analisar questões relativas à coordenação entre as políticas monetária e fiscal no Brasil após a adoção do regime de metas de inflação. Utiliza-se de um modelo de metas de inflação para uma economia pequena e aberta para a incorporação um bloco de equações que descrevem a dinâmica das variáveis fiscais. Tendo por base os conceitos de Leeper (1991), ambas as entidades, Banco Central e Tesouro Nacional, podem agir de forma ativa ou passiva, e será este comportamento estratégico que determinará a eficiência da política monetária. Foram estimados os parâmetros que calibram o modelo e feitas as simulações para alguns dos choques que abalaram a economia brasileira nos últimos anos. Os resultados mostraram que nos arranjos em que a autoridade fiscal reage a aumentos de dívida pública com alterações no superávit primário, a trajetória de ajuste das variáveis frente a choques tende a ser, na maioria dos casos, menos volátil propiciando uma atuação mais eficiente do Banco Central. Nestes arranjos, o Banco Central não precisa tomar para si funções que são inerentes ao Tesouro. Também são analisadas as variações no comportamento do Banco Central e do Tesouro Nacional em função de diferentes composições da dívida pública. Os resultados mostram que a estrutura do endividamento público será benéfica, ou não, à condução das políticas monetária e fiscal, dependendo do tipo de choque enfrentado. O primeiro capítulo, introdutório, procura contextualizar o regime de metas de inflação brasileiro e descrever, sucintamente, a evolução da economia brasileira desde sua implantação. No segundo capítulo são analisados os fundamentos teóricos do regime de metas de inflação, sua origem e principais componentes; em seguida, são apresentados, as regras de política fiscal necessárias à estabilidade de preços e o problema da dominância fiscal no âmbito da economia brasileira. O terceiro capítulo apresenta a incorporação do bloco de equações fiscais no modelo de metas de inflação para economia aberta proposto por Svensson (2000), e as estimações e calibrações dos seus parâmetros para a economia brasileira. O quarto capítulo discute as diferentes formas de coordenação entre as autoridades monetária e fiscal e a atuação ótima do Banco Central. O quinto capítulo tem como base a mais eficiente forma de coordenação obtida no capítulo anterior para analisar as mudanças no comportamento da autoridade monetária e fiscal frente a diferentes estruturas de prazos e indexadores da dívida pública que afetam suas elasticidades, juros, inflação e câmbio.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese é uma discussão crítica, sob a ótica da formação de expectativas, da relação que se interpõe entre ciência econômica, como corpo de conhecimento, e seus agentes. Primeiro, examinamos abordagens relevantes sobre expectativas na análise econômica, indicando suas insuficiências. Argumentamos que a incorporação de expectativa, em qualquer tratamento analítico, deve envolver, principalmente, fundamentos epistêmicos. Segundo, sob a perspectiva da teoria de modernidade reflexiva desenvolvida por Anthony Giddens, buscamos identificar bases plausíveis para uma teoria de expectativa econômica. Concluímos que o processo de formação de expectativa é construção social, a partir da interdependência entre expertos e leigos. Denominamos esta conclusão por hipótese de expectativas socialmente construídas (HESC). Terceiro, propusemos um arcabouço analítico para incorporar a HESC. Basicamente, informação de expectativa se difunde através da mídia e do contato face a face entre agentes. Nova informação não resulta necessariamente em revisão de expectativas, o que vai depender, principalmente, de conhecimento econômico e vizinhança do agente. Por último, um exemplo de aplicação: o modelo-HESC foi submetido a três experimentos macroeconômicos, e seus resultados comparados àqueles obtidos por Mankiw e Reis (2002). A primeira conclusão desta tese é metodológica: expectativas dos agentes em modelos macroeconômicos não são determinadas a partir de equações do próprio modelo. A segunda é normativa: conhecimento e vizinhança são capazes de perpetuar ineficiências decorrentes de erros de expectativas. A terceira está relacionado com economia positiva: as diferenças entre os resultados do modelo de informação-rígida obtidos pelos autores acima e aqueles do modelo-HESC apontam para novas possibilidades explanatórias.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho tem por objetivo avaliar a influência dos parâmetros pressão, freqüência e fator de trabalho, bem como a interação destes fatores, na capacidade de gerar plasma estável e com propriedades nitretantes no interior de furos não passantes de pequeno diâmetro. Para atingir estes objetivos foram realizados experimentos utilizando um reator equipado com fonte de potência pulsada de 2 KW, mistura gasosa composta de 76% de Nitrogênio e 24% de Hidrogênio, amostras de aço ABNT 1045 normalizadas. As nitretações foram realizadas pelo período de uma hora a temperatura de 500 0C. Foram empregadas freqüências de 100, 1000 e 5000 Hz, fatores de trabalho de 0,5 (50%), 0,75 (75%), 1 (100%), as pressões utilizadas foram de 2, 3 e 4 Torr e furos não passantes de φ3 x 40 mm, φ4 x 60 mm, φ5 x 75 mm. Para determinar a significância de cada parâmetro e de suas interações foi utilizado o modelo estatístico Multi-Factor Anova, com projeto fatorial cruzado a 3 fatores e 3 níveis para cada fator. Com o uso do programa Statgraphics foram geradas as equações que mais se ajustaram ao modelo. Estas equações determinam a máxima profundidade de geração de plasma nitretante no interior dos furos de pequeno diâmetro para as condições de tratamento expostas acima.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação avalia o impacto da educação sobre a renda dos jovens no Brasil, seguindo a tradição de equações de determinação de salários. O trabalho difere dos trabalhos na área realizados no Brasil em quatro aspectos. Em primeiro lugar, Em primeiro lugar, o universo de análise está focado na população jovem brasileira, a qual ingressou recentemente no mercado de trabalho e nele permanecerá por muitos anos, o que traz informações sobre as características desse mercado para os próximos 25 a 35 anos. Além disso, ele difere porque introduz a qualidade do ensino como determinante dos rendimentos. Depois, porque adota um protocolo de imputação da qualidade da educação dos jovens para os quais não se tem informação sobre a qualidade da educação, de sorte a evitar viés de seleção. E, por fim, a dissertação contrasta com os estudos correntes no tema porque explora diferentes métodos de estimação dos retornos da educação e da qualidade do ensino. Além do método tradicional dos estimadores de OLS, este trabalho considera o uso de fronteiras estocásticas de salários. As estimativas foram feitas a partir de um modelo cross-section em dois estágios. No primeiro estágio, estimou-se a equação de determinação da probabilidade de um jovem entre 11 e 21 anos de idade estudar na rede pública ou na rede privada, escolas com diferenças qualitativas grandes no país. No segundo estágio, imputou-se um indicador de qualidade da educação dos jovens num modelo econométrico de determinação da renda dos jovens entre 16 e 25 anos de idade. O procedimento com imputação foi necessário simplesmente pelo fato de nas estatísticas brasileiras não haver informações sobre a qualidade do ensino adquirido pelos indivíduos. A análise permitiu mostrar que a qualidade da educação interfere de forma significativa na renda dos jovens, com grande impacto sobre os índices de desigualdade da distribuição de renda nessa faixa de idade. Também permitiu mostrar que existe um trade-off entre o retorno da e

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho visa investigar o analfabetismo no Brasil a partir do uso de novas medidas de alfabetização inicialmente desenvolvidas por Basu e Foster (1998). Para tanto, primeiro se avalia o perfil de alfabetização da população brasileira de acordo com a definição de analfabetismo isolado. Entende-se por analfabetos isolados aqueles indivíduos analfabetos que não convivem com pessoas alfabetizadas em nível domiciliar. Segundo, busca-se evidências de externalidades domiciliares da alfabetização de filhos em aspectos relacionados a salários e à participação no mercado de trabalho de pais analfabetos. Devido à suspeita de causalidade reversa nas estimações por Mínimos Quadrados Ordinários (MQO) das equações que relacionam as variáveis de interesse dos pais com as alfabetizações dos filhos, utiliza-se as ofertas municipais de escolas e professores de primeiro grau como variáveis instrumentais para a alfabetização. Da investigação do perfil de alfabetização constata-se que a região Nordeste é a que apresenta os piores resultados entre as regiões do país, uma vez que é a que tem a maior parcela de analfabetos isolados do total. Tal resultado condiciona políticas públicas de alfabetização para essa região. As aplicações das medidas indicam que os rankings de alfabetização por estados são sensíveis às diferentes medidas. Os resultados encontrados das estimações por MQO indicam haver correlação positiva entre as variáveis dependentes dos pais e alfabetização dos filhos. Entretanto, a aplicação da metodologia de variáveis instrumentais não confirma os resultados das estimações por MQO. Contudo, devido à fragilidade dos resultados das estimações do primeiro estágio, não se pode afirmar que não há externalidades da alfabetização dos filhos para os pais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A presente dissertação teve como objetivo analisar de modo abrangente e preciso as relações entre poupança pública e crescimento econômico, motivada pela importância do estudo para o entendimento dos fatores incentivadores do desenvolvimento e pela quase absoluta originalidade do tema. Depois de uma revisão analítica de modelos de crescimento econômico investigativos dos impactos do setor público sobre as taxas de desenvolvimento, análise teórico-descritiva das relações entre poupança pública e crescimento mostrou que a poupança é um indicador de sustentabilidade fiscal mais completo do que o superávit primário e tende a apresentar efeitos mais positivos sobre o comportamento do produto do que o superávit operacional. A subseqüente análise econométrica dos efeitos da poupança pública sobre o crescimento econômico baseou-se em hipóteses retiradas do exame descritivo da evolução de algumas variáveis públicas e da taxa de crescimento per capita para uma série de países, estimando modelos de regressão múltipla para um painel de 38 nações, entre desenvolvidas e em desenvolvimento. As equações estimadas e os testes de robustez dos resultados comprovaram, a elevados níveis de confiança, a hipótese de relação positiva entre as taxas de poupança pública e de crescimento econômico per capita, além de fornecerem resultados interessantes e consistentes sobre a forma de associação do desenvolvimento a outras variáveis. A conclusão central foi que um aumento de uma unidade na taxa de poupança pública deve levar, em média, a uma elevação de 0,17 unidades na taxa de crescimento econômico per capita, reforçando o argumento de que um importante indicador fiscal a ser monitorado pelos governos com o objetivo de atingir taxas mais elevadas de crescimento sem descuidar de suas finanças é a poupança pública.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper confronts the Capital Asset Pricing Model - CAPM - and the 3-Factor Fama-French - FF - model using both Brazilian and US stock market data for the same Sample period (1999-2007). The US data will serve only as a benchmark for comparative purposes. We use two competing econometric methods, the Generalized Method of Moments (GMM) by (Hansen, 1982) and the Iterative Nonlinear Seemingly Unrelated Regression Estimation (ITNLSUR) by Burmeister and McElroy (1988). Both methods nest other options based on the procedure by Fama-MacBeth (1973). The estimations show that the FF model fits the Brazilian data better than CAPM, however it is imprecise compared with the US analog. We argue that this is a consequence of an absence of clear-cut anomalies in Brazilian data, specially those related to firm size. The tests on the efficiency of the models - nullity of intercepts and fitting of the cross-sectional regressions - presented mixed conclusions. The tests on intercept failed to rejected the CAPM when Brazilian value-premium-wise portfolios were used, contrasting with US data, a very well documented conclusion. The ITNLSUR has estimated an economically reasonable and statistically significant market risk premium for Brazil around 6.5% per year without resorting to any particular data set aggregation. However, we could not find the same for the US data during identical period or even using a larger data set. Este estudo procura contribuir com a literatura empírica brasileira de modelos de apreçamento de ativos. Dois dos principais modelos de apreçamento são Infrontados, os modelos Capital Asset Pricing Model (CAPM)e de 3 fatores de Fama-French. São aplicadas ferramentas econométricas pouco exploradas na literatura nacional na estimação de equações de apreçamento: os métodos de GMM e ITNLSUR. Comparam-se as estimativas com as obtidas de dados americanos para o mesmo período e conclui-se que no Brasil o sucesso do modelo de Fama e French é limitado. Como subproduto da análise, (i) testa-se a presença das chamadas anomalias nos retornos, e (ii) calcula-se o prêmio de risco implícito nos retornos das ações. Os dados revelam a presença de um prêmio de valor, porém não de um prêmio de tamanho. Utilizando o método de ITNLSUR, o prêmio de risco de mercado é positivo e significativo, ao redor de 6,5% ao ano.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Fenômenos naturais, tecnológicos e industriais podem, em geral, ser modelados de modo acurado através de equações diferenciais parciais, definidas sobre domínios contínuos que necessitam ser discretizados para serem resolvidos. Dependendo do esquema de discretização utilizado, pode-se gerar sistemas de equações lineares. Esses sistemas são, de modo geral, esparsos e de grande porte, onde as incógnitas podem ser da ordem de milhares, ou até mesmo de milhões. Levando em consideração essas características, o emprego de métodos iterativos é o mais apropriado para a resolução dos sistemas gerados, devido principalmente a sua potencialidade quanto à otimização de armazenamento e eficiência computacional. Uma forma de incrementar o desempenho dos métodos iterativos é empregar uma técnica multigrid. Multigrid são uma classe de métodos que resolvem eficientemente um grande conjunto de equações algébricas através da aceleração da convergência de métodos iterativos. Considerando que a resolução de sistemas de equações de problemas realísticos pode requerer grande capacidade de processamento e de armazenamento, torna-se imprescindível o uso de ambientes computacionais de alto desempenho. Uma das abordagens encontradas na literatura técnica para a resolução de sistemas de equações em paralelo é aquela que emprega métodos de decomposição de domínio (MDDs). Os MDDs são baseados no particionamento do domínio computacional em subdomínios, de modo que a solução global do problema é obtida pela combinação apropriada das soluções obtidas em cada um dos subdomínios Assim, neste trabalho são disponibilizados diferentes métodos de resolução paralela baseado em decomposição de domínio, utilizando técnicas multigrid para a aceleração da solução de sistemas de equações lineares. Para cada método, são apresentados dois estudos de caso visando a validação das implementações. Os estudos de caso abordados são o problema da difusão de calor e o modelo de hidrodinâmica do modelo UnHIDRA. Os métodos implementados mostraram-se altamente paralelizáveis, apresentando bons ganhos de desempenho. Os métodos multigrid mostraram-se eficiente na aceleração dos métodos iterativos, já que métodos que utilizaram esta técnica apresentaram desempenho superior aos métodos que não utilizaram nenhum método de aceleração.