854 resultados para Algoritmos computacionais
Resumo:
O objetivo deste trabalho é a proposta de uma arquitetura especial para simulação lógica (AESL). As técnicas e modelos utilizados no processo de simulação lógica são brevemente revistos. É definida uma taxonomia para AESL sob a qual são analisadas diversas propostas de AESL relatadas na literatura. Uma taxonomia já existente é comparada com a proposta. A AESL definida é programável para diferentes algoritmos de simulação lógica. O detalhamento da AESL é, então, incrementado pela implementação de um algoritmo particular. Uma linguagem de simulação discreta é utilizada na construção de um modelo da arquitetura. Os resultados da simulação deste modelo permitem avaliar o desempenho da AESL e otimizar sua estrutura. Uma comparação com outras arquiteturas conclui a análise.
Resumo:
O contexto desta tese é a Inteligência Artificial aplicada à Educação, especificamente a área dos Sistemas Tutores Inteligentes (STI). Apesar das características multidisciplinares e interdisciplinares, a preocupação maior do trabalho se dá quanto aos aspectos computacionais. A multidisciplinaridade está na relação entre os aspectos educacionais, filosóficos e psicológicos inerentes a toda construção de um software educacional, e a interdisciplinaridade acontece no relacionamento da IA com a Informática na Educação. Esta tese propõe o uso de aspectos afetivos como apoio à decisão de ação por parte de um STI. As nossas hipóteses fundamentais são: um sistema de ensino e aprendizagem computacional deve levar em consideração fatores afetivos tornando mais flexível a interação; e a arquitetura de um sistema computacional de interação em tempo real com agentes humanos deve prever explicitamente, em sua arquitetura básica, as crenças e o raciocínio afetivos. Para demonstrar essas idéias, foi definida uma arquitetura para apoiar um STI de modo a reconhecer alguns fatores afetivos, representativos de estratégias de ação de agentes humanos em interação com sistemas. Esse reconhecimento é realizado através de construções retiradas dos comportamentos observáveis do agente humano em contextos determinados. A arquitetura prevê um Sistema Multiagente para executar a percepção de fatores afetivos e da conduta do aluno em interação e de um agente pedagógico, representando o tutor. O agente tutor é modelado através de estados mentais e é responsável pelo raciocínio de alto nível. O modelo computacional de agentes de Móra [MÓR2000] foi utilizado para implementar o “kernel cognitivo” (termo cunhado por Móra e Giraffa [GIR99] que designa a parte responsável pela deliberação). O “kernel cognitivo” decide que ações tomar para um conjunto de características de uma avaliação pedagógica. A utilização de fatores afetivos e da avaliação cognitiva de situações emocionais permite a flexibilização das estratégias quanto à adaptabilidade a agentes humanos. Particularmente, foi adotado o enfoque cognitivo para análise de situações, baseado em teorias cognitivistas sobre emoções. O uso de tecnologia multiagente, no enfoque mentalístico, especificamente BDI (Belief, Desire, Intention) e da ferramenta X-BDI, permite a formalização e construção de um tutor atuante na avaliação pedagógica. A modelagem do aluno passa a ser constituída de aspectos qualitativos e quantitativos. Estudos de casos são apresentados, em situações que consideram os fatores afetivos e nas mesmas situações sem estas considerações. As decisões do tutor para agir são analisadas e confrontadas. Os resultados mostram um impacto positivo na adaptabilidade e ação pedagógica do tutor, sendo coerente com as teorias modernas [SAL97],[DAM2000] sobre as emoções que as consideram partes fundamentais para agir. A maior contribuição desta tese está na agregação de raciocínio sobre a afetividade envolvida em situações de ensino aprendizagem de agentes humanos e artificiais e avança dentro da perspectiva de pesquisa do grupo de IA da UFRGS, quanto ao desenvolvimento de Ambientes de Ensino e Aprendizagem modelados com tecnologia multiagente, com o uso da metáfora de estados mentais.
Resumo:
O objetivo deste trabalho é o dimensionamento de pilares esbeltos de concreto armado, sob cargas de curta e longa duração, baseado numa análise realística das deformações do mesmo. Apresenta-se três algoritmos numéricos para a obtencão das relações momento fletor-esforço normal-curvatura de uma seção arbitrária de concreto armado, sob flexo-compressão normal. Inclue-se as deformações específicas de fluência e retração do concreto na análise, através de uma alteração nas referidas relações. Apresenta-se alguns critérios de normas, relativos ao dimensionamento de pilares esbeltos de concreto armado e uma comparação dos mesmos, entre si e com o algoritmo numérico desenvolvido. Considerações da NB-1/78 relativas ao projeto de pilares são analisadas, verificando o nivel da precisão obtida. Um procedimento simplificado para a inclusão da fluência do concreto no dimensionamento, proposto pelo CEB, é testado e uma solução para pilares de concreto armado com engastamento elástico simétrico é apresentada, para verificar o nível: do erro cometido ao se estender o conceito de comprimento de flambagem a pilares de concreto armado. Uma série de exemplos experimentais são apresentados, onde a solução numérica para o dimensionamento tem sua precisão verificada. Diversas tabelas foram desenvolvidas para o dimensionamento de pilares esbeltos com secão transversal retangular e armadura simétrica. Todo o estudo é restrito ao caso de flexo-compressão normal.
Resumo:
O objetivo desta dissertação é a paralelização e a avaliação do desempenho de alguns métodos de resolução de sistemas lineares esparsos. O DECK foi utilizado para implementação dos métodos em um cluster de PCs. A presente pesquisa é motivada pela vasta utilização de Sistemas de Equações Lineares em várias áreas científicas, especialmente, na modelagem de fenômenos físicos através de Equações Diferenciais Parciais (EDPs). Nessa área, têm sido desenvolvidas pesquisas pelo GMC-PAD – Grupo de Matemática da Computação e Processamento de Alto Desempenho da UFRGS, para as quais esse trabalho vem contribuindo. Outro fator de motivação para a realização dessa pesquisa é a disponibilidade de um cluster de PCs no Instituto de Informática e do ambiente de programação paralela DECK – Distributed Execution and Communication Kernel. O DECK possibilita a programação em ambientes paralelos com memória distribuída e/ou compartilhada. Ele está sendo desenvolvido pelo grupo de pesquisas GPPD – Grupo de Processamento Paralelo e Distribuído e com a paralelização dos métodos, nesse ambiente, objetiva-se também validar seu funcionamento e avaliar seu potencial e seu desempenho. Os sistemas lineares originados pela discretização de EDPs têm, em geral, como características a esparsidade e a numerosa quantidade de incógnitas. Devido ao porte dos sistemas, para a resolução é necessária grande quantidade de memória e velocidade de processamento, característicos de computações de alto desempenho. Dois métodos de resolução foram estudados e paralelizados, um da classe dos métodos diretos, o Algoritmo de Thomas e outro da classe dos iterativos, o Gradiente Conjugado. A forma de paralelizar um método é completamente diferente do outro. Isso porque o método iterativo é formado por operações básicas de álgebra linear, e o método direto é formado por operações elementares entre linhas e colunas da matriz dos coeficientes do sistema linear. Isso permitiu a investigação e experimentação de formas distintas de paralelismo. Do método do Gradiente Conjugado, foram feitas a versão sem précondicionamento e versões pré-condicionadas com o pré-condicionador Diagonal e com o pré-condicionador Polinomial. Do Algoritmo de Thomas, devido a sua formulação, somente a versão básica foi feita. Após a paralelização dos métodos de resolução, avaliou-se o desempenho dos algoritmos paralelos no cluster, através da realização de medidas do tempo de execução e foram calculados o speedup e a eficiência. As medidas empíricas foram realizadas com variações na ordem dos sistemas resolvidos e no número de nodos utilizados do cluster. Essa avaliação também envolveu a comparação entre as complexidades dos algoritmos seqüenciais e a complexidade dos algoritmos paralelos dos métodos. Esta pesquisa demonstra o desempenho de métodos de resolução de sistemas lineares esparsos em um ambiente de alto desempenho, bem como as potencialidades do DECK. Aplicações que envolvam a resolução desses sistemas podem ser realizadas no cluster, a partir do que já foi desenvolvido, bem como, a investigação de précondicionadores, comparação do desempenho com outros métodos de resolução e paralelização dos métodos com outras ferramentas possibilitando uma melhor avaliação do DECK.
Resumo:
Os algoritmos baseados no paradigma Simulated Annealing e suas variações são atualmente usados de forma ampla na resolução de problemas de otimização de larga escala. Esta popularidade é resultado da estrutura extremamente simples e aparentemente universal dos algoritmos, da aplicabilidade geral e da habilidade de fornecer soluções bastante próximas da ótima. No início da década de 80, Kirkpatrick e outros apresentaram uma proposta de utilização dos conceitos de annealing (resfriamento lento e controlado de sólidos) em otimização combinatória. Esta proposta considera a forte analogia entre o processo físico de annealing e a resolução de problemas grandes de otimização combinatória. Simulated Annealing (SA) é um denominação genérica para os algoritmos desenvolvidos com base nesta proposta. Estes algoritmos combinam técnicas de busca local e de randomização. O objetivo do presente trabalho é proporcionar um entendimento das características do Simulated Annealing e facilitar o desenvolvimento de algoritmos com estas características. Assim, é apresentado como Simulated Annealing e suas variações estão sendo utilizados na resolução de problemas de otimização combinatória, proposta uma formalização através de um método de desenvolvimento de algoritmos e analisados aspectos de complexidade. O método de desenvolvimento especifica um programa abstrato para um algoritmo Simulated Annealing seqüencial, identifica funções e predicados que constituem os procedimentos deste programa abstrato e estabelece axiomas que permitem a visualização das propriedades que estes procedimentos devem satisfazer. A complexidade do Simulated Annealing é analisada a partir do programa abstrato desenvolvido e de seus principais procedimentos, permitindo o estabelecimento de uma equação genérica para a complexidade. Esta equação genérica é aplicável aos algoritmos desenvolvidos com base no método proposto. Uma prova de correção é apresentada para o programa abstrato e um código exemplo é analisado com relação aos axiomas estabelecidos. O estabelecimento de axiomas tem como propósito definir uma semântica para o algoritmo, o que permite a um desenvolvedor analisar a correção do código especificado para um algoritmo levando em consideração estes axiomas. O trabalho foi realizado a partir de um estudo introdutório de otimização combinatória, de técnicas de resolução de problemas, de um levantamento histórico do uso do Simulated Annealing, das variações em torno do modelo e de embasamentos matemáticos documentados. Isto permitiu identificar as características essenciais dos algoritmos baseados no paradigma, analisar os aspectos relacionados com estas características, como as diferentes formas de realizar uma prescrição de resfriamento e percorrer um espaço de soluções, e construir a fundamentação teórica genérica proposta.
Resumo:
Os Sistemas de Informação Geográfica (SIG) são construídos, especificamente, para armazenar, analisar e manipular dados geográficos, ou seja, dados que representam objetos e fenômenos do mundo real, cuja localização em relação à superfície da Terra seja considerada. A interoperabilidade desses sistemas, que constitui-se na capacidade de compartilhar e trocar informações e processos entre ambientes computacionais heterogêneos, se faz necessária, pois, devido ao elevado custo de aquisição dos dados geográficos, as comunidades de informação precisam compartilhar dados de fontes existentes, sem a necessidade de fazer conversões. Porém, pela complexidade e incompatibilidades de representação, de estrutura e de semântica das informações geográficas, a maioria dos softwares de SIG, hoje, não são interoperáveis. Existe também, além do problema da não interoperabilidade, uma crescente preocupação com relação à qualidade e à integridade espacial dos dados geográficos. Contudo, alguns modelos conceituais de dados geográficos e os softwares de SIG não oferecem, ainda, os meios adequados para representar e garantir a integridade espacial das informações. As restrições de integridade definidas durante a fase de projeto conceitual, normalmente, são implementadas durante o projeto físico, seja de forma implícita ou explícita, podendo ser incorporadas diretamente no modelo de implementação do SIG, de forma que o usuário da aplicação apenas mencione a regra e o sistema a implemente e a garanta automaticamente.Este trabalho de pesquisa propõe uma extensão ao Modelo Abstrato OpenGIS, modelo este que deve ser um padrão de interoperabilidade de software para SIG. A extensão proposta incorpora ao mesmo um subconjunto de tipos de restrição espacial, buscando com isso oferecer melhor suporte às regras da realidade geográfica expressáveis na modelagem conceitual do sistema.
Resumo:
A crescente demanda por produtos de melhor qualidade, diferenciados e com custos competitivos tem forçado as manufaturas a se tornarem flexíveis, capacitando-as a responder às mudanças impostas pelo mercado. A flexibilidade permite que as empresas alcancem a customização desejada através da capacitação do sistema de responder e atuar em tempo real, mesmo em um ambiente de incertezas. Para atuar em tempo real, os sistemas de manufatura precisam de representações eficientes dos planos de produção. Muitas vezes, a atuação em tempo real torna-se inviável devido ao crescimento exponencial no número de planos de produção para cada máquina ou operação adicionada ao sistema. Uma possível solução para este problema é uso de representações adequadas para o espaço de estados. A escolha de uma representação adequada para o espaço de estados influencia na capacidade de reposta em tempo real, pois determina o desempenho computacional do sistema através da utilidade e eficiência dos algoritmos desenvolvidos, tornando possível explorar problemas clássicos de flexibilidade, tais como, seqüenciamento, otimização, etc. Entretanto, a geração de uma representação que trabalhe com o espaço de estados completo de uma manufatura é considerada um problema não polinomial (NP). Esta particularidade dificulta o desenvolvimento de algoritmos que trabalhem com uma manufatura flexível. Assim, a geração de uma representação, que trabalhe com pouca memória computacional e permita o desenvolvimento de heurísticas eficientes, é um importante desafio para uma avaliação efetiva da flexibilidade. Este trabalho objetiva o desenvolvimento de uma representação para o espaço de estados de uma manufatura com flexibilidade de seqüência. Na construção desta representação são aplicadas técnicas de modelagem baseadas na teoria dos grafos e nos princípios de álgebra booleana. Inicialmente, os grafos são utilizados para representar todas as seqüências de operações de uma manufatura, posteriormente estas seqüências são convertidas em formas normais disjuntivas (FND). Por fim, é apresentada uma possível aplicação da representação na FND em modelos de programação linear.
Resumo:
Sabe-se que a fala é a principal maneira de comunicação entre as pessoas. A Síntese de fala (geração automática da fala pelo computador) tem recebido atenção da comunidade acadêmica e profissional por várias décadas. Ela envolve a conversão de um texto de entrada em fala, usando algoritmos e algumas formas de fala codificada. O texto pode ser digitado pelo teclado ou obtido por reconhecimento de caracteres ou, ainda, obtido de um banco de dados. A síntese de fala pode ser usada em vários domínios de aplicação, tais como: auxílio para deficientes visuais, telecomunicações, multimídia, etc. Este trabalho apresenta um estudo sobre a produção da fala e da área de síntese de fala visando servir de subsídio para dissertações e pesquisas futuras, bem como para o Projeto Spoltech, um projeto de cooperação entre os Estados Unidos e o Brasil para o avanço da tecnologia da língua falada no Brasil (Português Brasileiro). Dentro deste estudo serão apresentadas as principais técnicas de síntese de fala, entre as quais destaca-se: Texto para Fala (TPF). Problemas de separação de sílabas, determinação da sílaba tônica, pronunciação das vogais “e” e “o” como um fonema aberto ou fechado, etc, são enfrentados dentro do contexto da área de síntese de fala para o português falado no Brasil. Tendo conhecimento destes problemas, o principal objetivo deste trabalho será criar regras para resolver o problema de pronunciação das vogais “e” e “o” de forma automática, visando obter produção sonora mais inteligível, por intermédio da implementação de um analisador estatístico, o qual verificará a letra anterior e posterior ao “e” ou “o” de uma palavra e, com isso, determinar a pronúncia dos mesmos para aquela seqüência de letras. As mesmas poderão tornar-se regras válidas para a solução do problema se atingirem 80% dos casos de ocorrência no dicionário com fonema “e” ou “o” aberto (limiar), sendo que elas serão lidas por um interpretador Scheme utilizado pelo programa Festival - ferramenta para a construção de sistemas de síntese de fala desenvolvida pelo Centre for Speech Technology Research (University of Edinburgh, Reino Unido), a qual utiliza TPF como método de síntese. Sabendo-se que o Festival gera os fonemas “e” e “o” como fechados se não há uma regra para inferir o contrário, serão consideradas apenas as regras encontradas para os fonemas abertos. Para possibilitar esta análise será utilizado um dicionário eletrônico de pronunciação (com 19.156 palavras), o qual possui a palavra e a sua respectiva pronúncia, conforme pode-se verificar no exemplo do Anexo 1.
Resumo:
Fundamentalmente, o presente trabalho faz uma análise elástica linear de pontes ou vigas curvas assimétricas de seção transversal aberta e de parede fina, com propriedades físicas, geométricas e raio de curvatura constantes ao longo do eixo baricêntrico. Para tanto, utilizaram-se as equações diferenciais de VLASOV considerando o acoplamento entre as deformações nas direções vertical, transversal, axial de torcão nal. Na solução do sistema de quatro equações com derivadas parciais foi utilizado um apropriado método numérico de integração (Diferenças Finitas Centrais). A análise divide-se, basicamente, em dois tipos: análise DINÂMICA e ESTATICA. Ambas são utilizadas também na determinação do coeficiente de impacto (C.M.D.). A primeira refere-se tanto na determinação das características dinâmicas básicas (frequências naturais e respectivos modos de vibração), como também na determinação da resposta dinâmica da viga, em tensões e deformações, para cargas móveis arbitrárias. Vigas com qualquer combinação das condições de contorno, incluindo bordos rotulados e engastados nas três direções de flexão e na torção, são consideradas. 0s resultados da análise teórica, obtidos pela aplicação de programas computacionais implementados em microcomputador (análise estática) e no computador B-6700 (análise dinâmica), são comparados tanto com os da bibliografia técnica como também com resultados experimentais, apresentando boa correlação.
Resumo:
A comparação de dados de mercado é o método mais empregado em avaliação de imóveis. Este método fundamenta-se na coleta, análise e modelagem de dados do mercado imobiliário. Porém os dados freqüentemente contêm erros e imprecisões, além das dificuldades de seleção de casos e atributos relevantes, problemas que em geral são solucionados subjetivamente. Os modelos hedônicos de preços têm sido empregados, associados com a análise de regressão múltipla, mas existem alguns problemas que afetam a precisão das estimativas. Esta Tese investigou a utilização de técnicas alternativas para desenvolver as funções de preparação dos dados e desenvolvimento de modelos preditivos, explorando as áreas de descobrimento de conhecimento e inteligência artificial. Foi proposta uma nova abordagem para as avaliações, consistindo da formação de uma base de dados, ampla e previamente preparada, com a aplicação de um conjunto de técnicas para seleção de casos e para geração de modelos preditivos. Na fase de preparação dos dados foram utilizados as técnicas de regressão e redes neurais para a seleção de informação relevante, e o algoritmo de vizinhança próxima para estimação de valores para dados com erros ou omissões. O desenvolvimento de modelos preditivos incluiu as técnicas de regressão com superficies de resposta, modelos aditivos generalizados ajustados com algoritmos genéticos, regras extraídas de redes neurais usando lógica difusa e sistemas de regras difusas obtidos com algoritmos genéticos, os quais foram comparados com a abordagem tradicional de regressão múltipla Esta abordagem foi testada através do desenvolvimento de um estudo empírico, utilizando dados fornecidos pela Prefeitura Municipal de Porto Alegre. Foram desenvolvidos três formatos de avaliação, com modelos para análise de mercado, avaliação em massa e avaliação individual. Os resultados indicaram o aperfeiçoamento da base de dados na fase de preparação e o equilíbrio das técnicas preditivas, com um pequeno incremento de precisão, em relação à regressão múltipla.Os modelos foram similares, em termos de formato e precisão, com o melhor desempenho sendo atingido com os sistemas de regras difusas.
Resumo:
Este trabalho apresenta o método dos elementos finitos em conjunto com métodos numéricos especificos para a solução de problemas de fratura. Esta é uma poderosa ferramenta para a análise de fraturas e soluções confiáveis são obtidas para problemas complexos de Engenharia tanto no campo linear como no não-linear. O elemento finito. implementado é do tipo isoparamétrico quadrâtico da família Serendipity. Com dois graus de liberdade por nó, permite discretizar em estado plano de tensão ou deformação estruturas com geometrias bastante variadas. Para a análise linear são implementadas quatro técnicas consagradas para a avaliação do fator de intensidade de tensão no modo I de fratura: extrapolação de doslocamentos (usando malha somente com elementos convencionais e malha mesclada com elementos especiais), taxa de liberação de energia de defermação, extensão virtual da trinca e o método da integral J, descartando-se neste caso a hipótese de descarregamento. A linguagem de programação adotada é o FORTRAN 77. A entrada de dados é feita por intermédio de arquivos previamente preparados. Os resultados obtidos são confrontados com resultados experimentais e computacionais fornecidos por outros programas. Analisam-se placas, estruturas de uso na indústria e simulam-se ensaios como o corpo de prova de flexão em três pontos e o corpo de prova de tensão. compacto.
Resumo:
O Orçamento Discriminado de obras de edificação tem seus resultados originários do interrelacionamento de varios fatores, entre eles: dados levantados em planta, cálculo de quantitativos e composições unitárias para serviços. Estudou-se nesse trabalho dois desses três itens fundamentais. Os aspectos abordados foram o levantamento de dados, para torná-lo ágil e não repetitivo, e o cálculo de quantitativos, transformando-o em tarefa objetiva. A sistematização da medição que é aqui proposta trabalha sobre esses dois elementos e demonstra que até em serviços como instalações, um estudo profundo possibilita a criação de planilhas e encaminhamento genérico que torna o serviço de orçamentação metódico e acessível a todos, e não só ao responsável por sua execução. Tenta-se mostrar que a criação de metadalogia sistematizada permite introduzir a orçamentação em tratamentos computacionais já na fase de cálculo de quantitativos e não só para cálculo de produtos finais (quantitativo x consumos unitários) e impressão de resultados.
Resumo:
Conhecer o comportamento vibratório de rotores de máquinas rotativas, já durante a fase de projeto, é uma necessidade cada vez maior nos dias atuais, quando modificações corretivas, após o início da operação, já não são mais aceitáveis, devido aos altos custos de material e execução empregados, se comparados com os lucros que são cada vez mais reduzidos, em função das regras impostas pelo mercado, e devido também ao tempo necessário para tais modificações, que implica em manter a máquina parada, sem gerar lucros nesse penodo, acarretando em mu1tas contratuais para o fabricante. o presente trabalho visa dar subsídiosà análise dinâmicadas linhas de eixos de turbo e hidrogeradores (conjuntos formados pela turbina mais o gerador, usados respectivamentenas centraistermelétricase hidrelétricas). Inicialmente é feita uma breve explanação sobre formas construtivas de hidrogeradores e tipos de turbinas hidráu1icas utilizados atualmente. O trabalho prossegue apresentando as propriedades dos mancais com filme de óleo, os fenômenos do empuxo magnético no rotor do gerador e do efeito giroscópico, bem como a norma ISO 1940, que define os níveis admissíveis de desbalanceamentos residuais para rotores de máquinas É apresentada uma formulação matemática pelo Método das Matrizes de Transferência para as análises das vibrações livres, bem como das vibrações forçadas com carregamentos cíclicos devido aos desbalanceamentos residuais das linhas de eixos. A análise das vibrações livres é feita para a obtenção das fteqüências naturais torcionais e das fteqüências tlexionais críticas em um plano. A análise das vibrações forçadas é elaborada para fornecer as respostas dinâmicas em dois planos ortogonais, devido ao desbalanceamento residual. Para aplicação da metodologia de cálculo apresentada, são elaboradas rotinas computacionais de cálculos, utilizando como plataforma o software MATLAB. Para testar o Método das Matrizes de Transferência, bem como os programas de computador elaborados, faz-se algumas análises com soluções analíticas exatas e comparam-se resultados obtidos. Como aplicação prática, faz-se um estudo aprofundado dos comportamentos dinâmicos algumas linhas de eixos de hidrogeradores, para variações de configurações de construção dessas, bem como para as diversas condições de operação.
Resumo:
Neste trabalho estudamos um sistema de equações diferenciais parabólicas que modelam um processo de difusão-reação em duas dimensões da mistura molecular e reação química irreverssível de um só passo entre duas espécies químicas A e B para formar um produto P. Apresentamos resultados analíticos e computacionais relacionados à existência e unicidade da solução, assim como estimativas do erro local e global utilizando elementos finitos. Para os resultados analíticos usamos a teoria de semigrupos e o principio do m´aximo, e a simulação numérica é feita usando diferenças finitas centrais e o esquema simplificado de Ruge-Kutta. As estimativas do erro local para o problema semi-discretizado são estabelecidas usando normas de Sobolev, e para estimar o erro global usamos shadowing finito a posteriori. Os resultados computacionais obtidos mostram que o comportamento da solução está dentro do esperado e concorda com resultados da referências. Assim mesmo as estimativas do erro local e global são obtidas para pequenos intervalos de tempo e assumindo suficiente regularidade sobre a velocidade do fluído no qual realiza-se o processo. Destacamos que a estimativa do erro global usando shadowing finito é obtida sob hipóteses a posteriori sobre o operador do problema e o forte controle da velocidade numa vizinhança suficientemente pequena.