44 resultados para Computadores neurais


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Recentemente as tecnologias digitais de informação e comunicação vêm promovendo alterações na forma como os mapas são produzidos, o que pode ser uma fonte de renovação na educação geográfica em tempos de cibercultura. Nos últimos anos, aplicativos e sites voltados para o mapeamento on-line tornaram-se mais uma forma de expressão da cultura digital. Esta dissertação consiste em uma investigação acerca das possíveis mediações das cartografias multimídias e colaborativas, construídas através de interfaces da internet, em processos de ensino e aprendizagem de geografia. Os mapas colaborativos digitais são representações cartográficas produzidas de forma interativa, descentralizada e em rede. Eles permitem a inserção colaborativa de conteúdos hipermidiáticos (textos, fotos, vídeos) georreferenciados e constituem uma forma alternativa e potencialmente subversiva de produção cartográfica. A pesquisa realizada com alunos do nono ano de uma escola da Rede Municipal de Itaboraí se deu a partir do desenvolvimento de um projeto de mapeamento da região onde os alunos vivem. Os resultados revelaram que estas práticas cartográficas podem contribuir para a superação do atual mal-estar na relação entre jovens e a cultura escolar, bem como favorecer a construção de práticas pedagógicas comprometidas com a formação de cidadãos críticos e engajados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O desenvolvimento da consciência fonológica vem ganhando muito destaque quando se discute o processo de aquisição da leitura e da escrita de jovens com dificuldades de aprendizagem. Distinguir os sons das palavras, compreender e manipular as sílabas parece afetar a capacidade para ler e escrever qualquer palavra. O presente estudo tem como objetivos verificar os efeitos de um programa de ensino para favorecer o desenvolvimento da consciência fonológica. Esse programa de ensino foi elaborado com base em estudos e nas atividades realizadas por Capovilla e Capovilla (2000), Valério (1998), Moussatché (2002), Nunes (2009), dentre outros. A pesquisa está composta por dois estudos: estudo piloto e esstudo 1. O estudo piloto, iniciado em 2012 ? foi formado por dois jovens com deficiência intelectual que frequentavam uma escola regular e apresentavam dificuldade na leitura e escrita. Um estava no início e o outro já havia passado pelo processo de alfabetização. O estudo 1 iniciado em 2013, foi formado por quatro jovens com deficiência intelectual que estavam no processo de alfabetização e frequentavam uma escola especial. A pesquisa foi realizada nas escolas onde esses alunos estavam matriculados. A análise dos testes de Prova de Consciência Fonológica proposta por Capovilla e Capovilla (2000) o pré-teste - mostrou que os sujeitos do estudo piloto apresentavam na primeira testagem bom rendimento em tarefas como aliteração e rima, mas demonstraram dificuldade na parte de segmentação, síntese e manipulação fonêmica.Com a segunda testagem, o pós-teste - realizada após a implementação de um programa para favorecer o desenvolvimento de habilidades de consciência fonológica pode-se observar uma melhora no desempenho dessas habilidades. No estudo 1, o pré-teste mostrou que os alunos apresentavam dificuldades nas atividades que envolviam as habilidades de adição, subtração e transposição fonêmica e um melhor desempenho em atividades de rima e aliteração. Na prova de leitura oral de palavras e pseudopalavras, observou-se maior dificuldade na leitura das pseudopalavras. No pós-teste, aplicado após o período de intervenção com o programa supracitado, observou-se que nas questões de rima, adição e subtração silábica, adição e subtração fonêmica e transposição silábica, os sujeitos apresentaram aumento na porcentagem de acerto das atividades. Nas atividades de aliteração, transposição fonêmica e trocadilho os sujeitos mantiveram os mesmos resultados do pré-teste ou apresentaram queda na porcentagem de acertos. Nas provas de leitura de palavras e pseudopalavras os sujeitos não demonstraram aumento na porcentagem de leitura correta, com exceção apenas de Ana Clara, que apresentou pequeno aumento no seu resultado. Na parte de compreensão de leitura, os participantes apresentaram pequena alteração no resultado, mas não temos como associar essa melhora ao desempenho nas provas de consciência fonológica. Na avaliação de ditado de palavras e pseudopalavras os alunos demonstraram aumento nos resultados

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo deste trabalho é contribuir com o desenvolvimento de uma técnica baseada em sistemas inteligentes que possibilite a localização exata ou aproximada do ponto de origem de uma Variação de Tensão de Curta Duração (VTCD) (gerada por uma falta) em um sistema de distribuição de energia elétrica. Este trabalho utiliza um Phase-Locked Loop (PLL) com o intuito de detectar as faltas. Uma vez que a falta é detectada, os sinais de tensão obtidos durante a falta são decompostos em componentes simétricas instantâneas por meio do método proposto. Em seguida, as energias das componentes simétricas são calculadas e utilizadas para estimar a localização da falta. Nesta pesquisa, são avaliadas duas estruturas baseadas em Redes Neurais Artificiais (RNAs). A primeira é projetada para classificar a localização da falta em um dos pontos possíveis e a segunda é projetada para estimar a distância da falta ao alimentador. A técnica aqui proposta aplica-se a alimentadores trifásicos com cargas equilibradas. No desenvolvimento da mesma, considera-se que há disponibilidade de medições de tensões no nó inicial do alimentador e também em pontos esparsos ao longo da rede de distribuição. O banco de dados empregado foi obtido através de simulações de um modelo de alimentador radial usando o programa PSCAD/EMTDC. Testes de sensibilidade empregando validação-cruzada são realizados em ambas as arquiteturas de redes neurais com o intuito de verificar a confiabilidade dos resultados obtidos. Adicionalmente foram realizados testes com faltas não inicialmente contidas no banco de dados a fim de se verificar a capacidade de generalização das redes. Os desempenhos de ambas as arquiteturas de redes neurais foram satisfatórios e demonstram a viabilidade das técnicas propostas para realizar a localização de faltas em redes de distribuição.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A popularização da Internet nos últimos anos é parte de diversas transformações no âmbito das comunicações humanas. Essas transformações também estão presentes na educação; e tanto instituições como seus profissionais vem buscando se atualizar em relações às inovações técnicas dos últimos tempos. Professores de História também integram esse quadro e foi percebida a presença de inúmeros deles na rede mundial de computadores. Uma dessas expressões se dá através da criação de blogs pessoais. Entendendo a utilização desta ferramenta como potencial para diversas reconfigurações na educação, esta pesquisa investigou como professores de História constroem suas práticas pedagógicas na rede. Para fundamentar a reflexão teórico-metodológica, foram utilizadas algumas das produções de Walter Benjamin, Guy Debord, Eni Orlandi e Norman Fairclough. Como metodologia de pesquisa, foi realizado um mapeamento de 122 blogs de professores de História da Educação Básica. Buscando um diálogo com o chamado método das constelações de Walter Benjamin (2006), foi construída uma constelação com os blogs mapeados e posteriormente, desenvolvida uma análise com contribuições da Análise Crítica do Discurso.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Na década de 80, o surgimento de programas de computadores mais amigáveis para usuários e produtores de informação e a evolução tecnológica fizeram com que as instituições, públicas e privadas, se aperfeiçoassem em estudos sobre sistemas de produção cartográfica apoiados por computador, visando a implementação de Sistemas de Informação Geográfica (SIG). A pouca simultaneidade de forças entre órgãos interessados, resultou em uma grande quantidade de arquivos digitais com a necessidade de padronização. Em 2007, a Comissão Nacional de Cartografia (CONCAR) homologou a Estrutura de Dados Geoespaciais Vetoriais (EDGV) a fim de minimizar o problema da falta de padronização de bases cartográficas. A presente dissertação tem como foco elaborar uma metodologia de trabalho para o processo de conversão de bases cartográficas digitais existentes no padrão da Mapoteca Topográfica Digital (MTD), do Instituto Brasileiro de Geografia e Estatística (IBGE), para o padrão da EDGV, bem como suas potencialidades e limitações para integração e padronização de bases cartográficas digitais. Será feita uma aplicação da metodologia utilizando a carta topográfica de Saquarema, na escala de 1:50.000, vetorizada na Coordenação de Cartografia (CCAR) do IBGE e disponível na Internet. Como a EDGV foi elaborada segundo técnicas de modelagem orientada a objetos, foi necessário um mapeamento para banco de dados relacional, já que este ainda é utilizado pela maioria dos usuários e produtores de informação geográfica. Um dos objetivos específicos é elaborar um esquema de banco de dados, ou seja, um banco de dados vazio contendo todas as classes de objetos, atributos e seus respectivos domínios existentes na EDGV para que possa ser utilizado no processo de produção cartográfica do IBGE. Este esquema conterá todas as descrições dos objetos e de seus respectivos atributos, além de já permitir que o usuário selecione o domínio de um determinado atributo em uma lista pré definida, evitando que ocorra erro no preenchimento dados. Esta metodologia de trabalho será de grande importância para o processo de conversão das bases cartográficas existentes no IBGE e, com isso, gerar e disponibilizar bases cartográficas no padrão da EDGV.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Com o avanço no desenvolvimento e utilização de veículos e robôs autoequilibrantes, faz-se necessário a investigação de controladores capazes de atender os diversos desafios relacionados à utilização desses sistemas. Neste trabalho foi estudado o controle de equilíbrio e posição de um robô auto-equilibrante de duas rodas. O interesse particular nesta aplicação vem da sua estrutura e da riqueza de sua dinâmica física. Por ser um problema complexo e não trivial há grande interesse em avaliar os controladores inteligentes. A primeira parte da dissertação aborda o desenvolvimento de um controle clássico do tipo PID, para em seguida ser comparado com a implementação de dois tipos de controladores inteligentes: On-line Neuro Fuzzy Control (ONFC) e Proportional-Integral-Derivative Neural-Network (PIDNN). Também é apresentada a implementação dos controladores em uma plataforma de hardware, utilizando o kit LEGO Mindstorm, e numa plataforma de simulação utilizando o MATLAB-Simulink. Em seguida, dois estudos de casos são desenvolvidos visando comparar o desempenho dos controladores. O primeiro caso avalia o controle de equilíbrio e posição do robô auto-equilibrante de duas rodas sobre um terreno plano tendo como interesse observar o desempenho intrínseco do sistema sob ausência de fatores externos. O segundo caso estuda o controle de equilíbrio e posição do robô em terrenos irregulares visando investigar a resposta do sistema sob influência de condições adversas em seu ambiente. Finalmente, o desempenho de cada um dos controladores desenvolvidos é discutido, verificando-se resultados competitivos no controle do robô auto-equilibrante de duas rodas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Com cada vez mais intenso desenvolvimento urbano e industrial, atualmente um desafio fundamental é eliminar ou reduzir o impacto causado pelas emissões de poluentes para a atmosfera. No ano de 2012, o Rio de Janeiro sediou a Rio +20, a Conferência das Nações Unidas sobre Desenvolvimento Sustentável, onde representantes de todo o mundo participaram. Na época, entre outros assuntos foram discutidos a economia verde e o desenvolvimento sustentável. O O3 troposférico apresenta-se como uma variável extremamente importante devido ao seu forte impacto ambiental, e conhecer o comportamento dos parâmetros que afetam a qualidade do ar de uma região, é útil para prever cenários. A química das ciências atmosféricas e meteorologia são altamente não lineares e, assim, as previsões de parâmetros de qualidade do ar são difíceis de serem determinadas. A qualidade do ar depende de emissões, de meteorologia e topografia. Os dados observados foram o dióxido de nitrogênio (NO2), monóxido de nitrogênio (NO), óxidos de nitrogênio (NOx), monóxido de carbono (CO), ozônio (O3), velocidade escalar vento (VEV), radiação solar global (RSG), temperatura (TEM), umidade relativa (UR) e foram coletados através da estação móvel de monitoramento da Secretaria do Meio Ambiente (SMAC) do Rio de Janeiro em dois locais na área metropolitana, na Pontifícia Universidade Católica (PUC-Rio) e na Universidade do Estado do Rio de Janeiro (UERJ) no ano de 2011 e 2012. Este estudo teve três objetivos: (1) analisar o comportamento das variáveis, utilizando o método de análise de componentes principais (PCA) de análise exploratória, (2) propor previsões de níveis de O3 a partir de poluentes primários e de fatores meteorológicos, comparando a eficácia dos métodos não lineares, como as redes neurais artificiais (ANN) e regressão por máquina de vetor de suporte (SVM-R), a partir de poluentes primários e de fatores meteorológicos e, finalmente, (3) realizar método de classificação de dados usando a classificação por máquina de vetor suporte (SVM-C). A técnica PCA mostrou que, para conjunto de dados da PUC as variáveis NO, NOx e VEV obtiveram um impacto maior sobre a concentração de O3 e o conjunto de dados da UERJ teve a TEM e a RSG como as variáveis mais importantes. Os resultados das técnicas de regressão não linear ANN e SVM obtidos foram muito próximos e aceitáveis para o conjunto de dados da UERJ apresentando coeficiente de determinação (R2) para a validação, 0,9122 e 0,9152 e Raiz Quadrada do Erro Médio Quadrático (RMECV) 7,66 e 7,85, respectivamente. Quanto aos conjuntos de dados PUC e PUC+UERJ, ambas as técnicas, obtiveram resultados menos satisfatórios. Para estes conjuntos de dados, a SVM mostrou resultados ligeiramente superiores, e PCA, SVM e ANN demonstraram sua robustez apresentando-se como ferramentas úteis para a compreensão, classificação e previsão de cenários da qualidade do ar

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este estudo avaliou o potencial da Telemedicina como suporte complementar a assistência ambulatorial na monitoração de sintomas em pacientes com câncer avançado. Foram acompanhados 12 pacientes do ambulatório do Núcleo de Cuidados Paliativos do Hospital Universitário Pedro Ernesto (NCP-HUPE) de janeiro de 2011 a agosto de 2013. Mensalmente foram feitas consultas ambulatoriais pela médica e equipe multidisciplinar. Neste intervalo, os pacientes do domicilio, através de seus computadores pessoais se conectaram ao Laboratório de TeleSSaúde UERJ pelo serviço de webconferências interagindo com a mesma médica assistente do ambulatório. Os pacientes também tiveram acesso à médica por celular e email. A cada entrevista (presencial e remota) foi aplicada a Escala de Avaliação de Sintomas de Edmonton [Edmonton Symptom Assessment System (ESAS)], e coletado outros dados quanto a outras queixas biopsicossociais e espirituais, agravos à saúde, qualidade de áudio e vídeo da conexão, avaliação dos familiares com a Telemedicina e interferência da Telemedicina quanto ao local do óbito do paciente. Houve dificuldade na seleção dos pacientes, pois o HUPE é um hospital público cuja população assistida tem, caracteristicamente, baixa escolaridade, nível socioeconômico restrito e pouca habilidade com informática. O tempo médio de acompanhamento foi de 195 dias (DP 175,11; range: 11-553 dias). Todos receberam diagnóstico de câncer avançado e tinham dificuldades com locomoção. Sem dúvidas, a ESAS favoreceu a comunicação dos sintomas com os profissionais de saúde; porém, condições clínicas e controle dos sintomas singulares, avaliados em momentos distintos e sujeitos a influências diversas, impedem conclusões em relação às pretensas vantagens. Acompanhamento clínico, detecção de agravos à saúde e de sintomas físicos, psicossociais e espirituais foram possíveis de ser observados pela Telemedicina, confirmados e medicados nas consultas presenciais. A conexão para webconferência foi estabelecida por familiares, pois nenhum paciente operava computadores. O óbito domiciliar ocorreu em 41,67% e todos, mesmo os óbitos hospitalares, receberam suporte à distância do NCP. Durante o estudo foram feitos 305 contatos: 110 consultas presenciais a pacientes e familiares e 195 por Telemedicina (77 webconferências, 38 telefonemas e 80 emails). Todos os familiares referiram satisfação com o suporte oferecido. A Telemedicina permitiu maior acesso ao sistema de saúde (maior número de contatos), reduziu a busca por serviços de emergência, ajudou o controle dos sintomas e proporcionou orientações e segurança aos familiares. Este suporte favoreceu intervenções precoces e proativas e assistência continuada até o óbito. A Telemedicina demonstrou ser um bom adjuvante na monitoração e gerenciamento de sintomas de pacientes em cuidados paliativos em domicílio, não substituindo, mas complementando a assistência presencial.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Em 1828 foi observado um fenômeno no microscópio em que se visualizava minúsculos grãos de pólen mergulhados em um líquido em repouso que mexiam-se de forma aleatória, desenhando um movimento desordenado. A questão era compreender este movimento. Após cerca de 80 anos, Einstein (1905) desenvolveu uma formulação matemática para explicar este fenômeno, tratado por movimento Browniano, teoria cada vez mais desenvolvida em muitas das áreas do conhecimento, inclusive recentemente em modelagem computacional. Objetiva-se pontuar os pressupostos básicos inerentes ao passeio aleatório simples considerando experimentos com e sem problema de valor de contorno para melhor compreensão ao no uso de algoritmos aplicados a problemas computacionais. Foram explicitadas as ferramentas necessárias para aplicação de modelos de simulação do passeio aleatório simples nas três primeiras dimensões do espaço. O interesse foi direcionado tanto para o passeio aleatório simples como para possíveis aplicações para o problema da ruína do jogador e a disseminação de vírus em rede de computadores. Foram desenvolvidos algoritmos do passeio aleatório simples unidimensional sem e com o problema do valor de contorno na plataforma R. Similarmente, implementados para os espaços bidimensionais e tridimensionais,possibilitando futuras aplicações para o problema da disseminação de vírus em rede de computadores e como motivação ao estudo da Equação do Calor, embora necessita um maior embasamento em conceitos da Física e Probabilidade para dar continuidade a tal aplicação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho tem por objetivo levantar dados que permitam avaliar a qualidade do ensino nos Cursos de Ciências Contábeis. Dois aspectos são abordados dentre aqueles considerados como problema na atual estrutura dos cursos oferecidos pelas Instituições de Ensino Superior IES. O primeiro procura focalizar os conceitos relativos às questões pedagógicas, particularmente sobre a metodologia de ensino a ser adotada. Pretende-se mostrar a necessidade de um rompimento com a forma tradicional de se ministrar aulas, que é centrada no professor. Considerando todas as mudanças pela qual o mundo está passando e que determina uma mudança radical no perfil do formando na era da informação. O segundo aspecto é o de identificar o estado em que se encontram as IES no que diz respeito a apropriação da informática pelo ensino, a começar pela identificação da existência dos equipamentos à disposição de professores e alunos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As mídias eletrônicas, as tecnologias informacionais e de posicionamento espacial vêm transformando as práticas de leitura, escrita e posicionamento na atualidade, influenciando diretamente o ensino de geografia escolar. As políticas públicas buscam oferecer meios tecnológicos para que o ensino escolar fique mais dinâmico e atualizado. Dessa forma, as escolas brasileiras, seguindo uma lógica global, têm recebido diversas tecnologias distintas, que variam desde a TV até os computadores. Entretanto, a inserção das tecnologias nas aulas nem sempre ocorre de forma que possibilite aos alunos e professores produzirem e discutirem sua própria informação. O objetivo geral deste estudo é o de compreender como as densidades das tecnologias são consideradas nos planos de aula de geografia do MEC, com o auxílio das considerações de Milton Santos sobre o tema. Além disso, as considerações de Vygotsky sobre os aspectos sociais do ensino serão relacionados com as novas cartografias. Com efeito, os planos de aula produzidos por professores e disponibilizados no portal do Ministério de Educação e Cultura (MEC) serão analisados a partir das densidades tecnológicas (SANTOS, 2008). Para consubstanciar a investigação, foi feita uma análise de trabalhos de congressos de cartografia a partir das considerações de Vigotsky (2007). Uma das justificativas desse estudo passa, no ensino de geografia, pelas poucas análises e estudos existentes que busquem compreender como essa inserção de tecnologias tem se estabelecido. Por fim, é feita uma relação entre os objetos de estudo e a política de inserção de computadores nas escolas (PROUCA), tendo em vista que o uso dos recursos tecnológicos é indicado nos planos de aula. Esses planos e trabalhos analisados mostraram como as densidades das tecnologias podem gerar mais ou menos comunicabilidade entre alunos, professores e tecnologia

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese origina-se da pesquisa de doutoramento na Universidade do Estado do Rio de Janeiro UERJ - Proped e tem como objetivo compreender a formação do formador no contexto da cibercultura e como este vem estruturando sua atuação na docência universitária. Este trabalho faz parte do eixo 2 da Pesquisa Institucional A cibercultura na era das redes sociais e da mobilidade: novas potencialidades para a formação de professores. O campo da pesquisa foi a rede social Facebook. Constituíram-se praticantes da pesquisa seis professores-formadores do ProPEd e seus orientandos. A pertinência desta pesquisa inscreveu-se num amplo movimento da perspectiva epistemológica da multirreferencialidade com os cotidianos e pelo método atualizado da pesquisa-formação. A intenção primeira deste trabalho consistiu em mapear as experiências e itinerâncias do formador em suas práticas cotidianas nos espaçostempos da cibercultura. Tencionamos que a sistematização de ambiências formativas articulando o espaço da universidade e das redes sociais criou redes de docência e aprendizagem. Como dispositivos de pesquisa, lançamos mão de oficinas, interações nas redes sociais, conversas, participação nos grupos de pesquisa. A tese revela que a formação do formador na cibercultura forja outros espaçostempos de pesquisa acadêmica e de criação de dispositivos online. Revela também que os usos do digital em rede pelos praticantes da pesquisa fizeram emergir processos de orientação coletiva, de experiências formadoras e de articulação da interface cidadeuniversidade, estabelecendo outros sentidos para a prática pedagógica e para a pesquisa acadêmica

Relevância:

10.00% 10.00%

Publicador:

Resumo:

No presente trabalho foram desenvolvidos modelos de classificação aplicados à mineração de dados climáticos para a previsão de eventos extremos de precipitação com uma hora de antecedência. Mais especificamente, foram utilizados dados observacionais registrados pela estação meteorológica de superfície localizada no Instituto Politécnico da Universidade do Estado do Rio de Janeiro em Nova Friburgo RJ, durante o período de 2008 a 2012. A partir desses dados foi aplicado o processo de Descoberta de Conhecimento em Banco de Dados (KDD Knowledge Discovery in Databases), composto das etapas de preparação, mineração e pós processamento dos dados. Com base no uso de algoritmos de Redes Neurais Artificiais e Árvores de Decisão para a extração de padrões que indicassem um acúmulo de precipitação maior que 10 mm na hora posterior à medição das variáveis climáticas, pôde-se notar que a utilização da observação meteorológica de micro escala para previsões de curto prazo é suscetível a altas taxas de alarmes falsos (falsos positivos). Para contornar este problema, foram utilizados dados históricos de previsões realizadas pelo Modelo Eta com resolução de 15 km, disponibilizados pelo Centro de Previsão de Tempo e Estudos Climáticos do Instituto Nacional de Pesquisas Espaciais CPTEC/INPE. De posse desses dados, foi possível calcular os índices de instabilidade relacionados à formação de situação convectiva severa na região de Nova Friburgo e então armazená-los de maneira estruturada em um banco de dados, realizando a união entre os registros de micro e meso escala. Os resultados demonstraram que a união entre as bases de dados foi de extrema importância para a redução dos índices de falsos positivos, sendo essa uma importante contribuição aos estudos meteorológicos realizados em estações meteorológicas de superfície. Por fim, o modelo com maior precisão foi utilizado para o desenvolvimento de um sistema de alertas em tempo real, que verifica, para a região estudada, a possibilidade de chuva maior que 10 mm na próxima hora.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho de dissertação apresentaremos uma classe de precondicionadores baseados na aproximação esparsa da inversa da matriz de coecientes, para a resolução de sistemas lineares esparsos de grandes portes através de métodos iterativos, mais especificamente métodos de Krylov. Para que um método de Krylov seja eficiente é extremamente necessário o uso de precondicionadores. No contexto atual, onde computadores de arquitetura híbrida são cada vez mais comuns temos uma demanda cada vez maior por precondicionadores paralelizáveis. Os métodos de inversa aproximada que serão descritos possuem aplicação paralela, pois so dependem de uma operação de produto matriz-vetor, que é altamente paralelizável. Além disso, alguns dos métodos também podem ser construídos em paralelo. A ideia principal é apresentar uma alternativa aos tradicionais precondicionadores que utilizam aproximações dos fatores LU, que apesar de robustos são de difícil paralelização.