856 resultados para Algoritmos experimentais
Resumo:
O Helicobacter pylori, é tido como o principal fator de risco para o carcinoma gástrico. Diferentes estudos experimentais em animais procuram relacionar essa carcinogênese a outros fatores carcinógenos sem sucesso. Neste estudo, procurou-se avaliar-se em ratos, se há correlação entre o refluxo duodenogástrico, o Helicobacter pylori e o desenvolvimento do câncer gástrico ou de seus precursores. Para tal, realizou-se nos três grupos de ratos (n de dez por grupo) as técnicas de: piloroplastia precedida de infecção, gastrectomia subtotal precedida de infecção e um grupo no qual foi praticada apenas a infecção. Apois seis meses, analisou-se as alterações da mucosa, comparando-se os três grupos. As alterações da mucosa pesquisadas foram as seguintes: gastrites, metaplasias, displasias e neoplasias epiteliais. Ao término do estudo, foi encontrado, no grupo submetido a piloroplastia precedida de infecção um alto percentual de alterações epiteliais. Conclui-se que, no rato, a operação de piloroplastia, levou ao maior desenvolvimento da população do Helicobacter pylori, que se relaciona com as lesões pré- malignas e o adenocarcinoma gástrico.
Resumo:
O Leito Móvel Simulado (LMS) é um processo de separação de compostos por adsorção muito eficiente, por trabalhar em um regime contínuo e também possuir fluxo contracorrente da fase sólida. Dentre as diversas aplicações, este processo tem se destacado na resolução de petroquímicos e principalmente na atualidade na separação de misturas racêmicas que são separações de um grau elevado de dificuldade. Neste trabalho foram propostas duas novas abordagens na modelagem do LMS, a abordagem Stepwise e a abordagem Front Velocity. Na modelagem Stepwise as colunas cromatográficas do LMS foram modeladas com uma abordagem discreta, onde cada uma delas teve seu domínio dividido em N células de mistura interligadas em série, e as concentrações dos compostos nas fases líquida e sólida foram simuladas usando duas cinéticas de transferência de massa distintas. Essa abordagem pressupõe que as interações decorrentes da transferência de massa entre as moléculas do composto nas suas fases líquida e sólida ocorram somente na superfície, de forma que com essa suposição pode-se admitir que o volume ocupado por cada molécula nas fases sólida e líquida é o mesmo, o que implica que o fator de residência pode ser considerado igual a constante de equilíbrio. Para descrever a transferência de massa que ocorre no processo cromatográfico a abordagem Front Velocity estabelece que a convecção é a fase dominante no transporte de soluto ao longo da coluna cromatográfica. O Front Velocity é um modelo discreto (etapas) em que a vazão determina o avanço da fase líquida ao longo da coluna. As etapas são: avanço da fase líquida e posterior transporte de massa entre as fases líquida e sólida, este último no mesmo intervalo de tempo. Desta forma, o fluxo volumétrico experimental é utilizado para a discretização dos volumes de controle que se deslocam ao longo da coluna porosa com a mesma velocidade da fase líquida. A transferência de massa foi representada por dois mecanismos cinéticos distintos, sem (tipo linear) e com capacidade máxima de adsorção (tipo Langmuir). Ambas as abordagens propostas foram estudadas e avaliadas mediante a comparação com dados experimentais de separação em LMS do anestésico cetamina e, posteriormente, com o fármaco Verapamil. Também foram comparados com as simulações do modelo de equilíbrio dispersivo para o caso da Cetamina, usado por Santos (2004), e para o caso do Verapamil (Perna 2013). Na etapa de caracterização da coluna cromatográfica as novas abordagens foram associadas à ferramenta inversa R2W de forma a determinar os parâmetros globais de transferência de massa apenas usando os tempos experimentais de residência de cada enantiômero na coluna de cromatografia líquida de alta eficiência (CLAE). Na segunda etapa os modelos cinéticos desenvolvidos nas abordagens foram aplicados nas colunas do LMS com os valores determinados na caracterização da coluna cromatográfica, para a simulação do processo de separação contínua. Os resultados das simulações mostram boa concordância entre as duas abordagens propostas e os experimentos de pulso para a caracterização da coluna na separação enantiomérica da cetamina ao longo do tempo. As simulações da separação em LMS, tanto do Verapamil quando da Cetamina apresentam uma discrepância com os dados experimentais nos primeiros ciclos, entretanto após esses ciclos iniciais a correlação entre os dados experimentais e as simulações. Para o caso da separação da cetamina (Santos, 2004), a qual a concentração da alimentação era relativamente baixa, os modelos foram capazes de predizer o processo de separação com as cinéticas Linear e Langmuir. No caso da separação do Verapamil (Perna, 2013), onde a concentração da alimentação é relativamente alta, somente a cinética de Langmuir representou o processo, devido a cinética Linear não representar a saturação das colunas cromatográficas. De acordo como o estudo conduzido ambas as abordagens propostas mostraram-se ferramentas com potencial na predição do comportamento cromatográfico de uma amostra em um experimento de pulso, assim como na simulação da separação de um composto no LMS, apesar das pequenas discrepâncias apresentadas nos primeiros ciclos de trabalho do LMS. Além disso, podem ser facilmente implementadas e aplicadas na análise do processo, pois requer um baixo número de parâmetros e são constituídas de equações diferenciais ordinárias.
Resumo:
A modelagem matemática e computacional é uma ferramenta que tem sido bastante utilizada no campo da Biologia e das Ciências Biomédicas. Nos dias de hoje, uma quantidade significativa de dados experimentais nessa área pode ser encontrada na literatura, tornando possível o desenvolvimento de modelos que combinem a experimentação e hipóteses teóricas. O objetivo do presente projeto é implementar um modelo matemático de transmissão sináptica conectando neurônios em um circuito de descargas repetitivas ou reverberativo, a fim de investigar o seu comportamento diante de variações paramétricas. Através de simulações computacionais, utilizando um programa desenvolvido em linguagem C++, pretende-se utilizá-lo para simular um circuito de memória imediata. Afora o considerável avanço da Neurofisiologia e Neurociência computacional no sentido do entendimento das características fisiológicas e comportamentais das habilidades do Sistema Nervoso Central, muitos mecanismos neuronais ainda permanecem completamente obscuros. Ainda não se conhece definitivamente o mecanismo pelo qual o cérebro adquire, armazena e evoca as informações. Porém, o postulado de Hebb referente às redes reverberantes, onde a idéia de que redes de reverberação facilitariam a associação de dados coincidentes entre informações sensoriais, temporalmente divergentes, tem sido aceito para explicar a formação de memória imediata (Johnson et al., 2009). Assim, com base no postulado de Hebb, os resultados observados no modelo neuromatemático-computacional adotado possuem características de um circuito de memória imediata.
Resumo:
Uma dedução dos critérios de multicriticalidade para o cálculo de pontos críticos de qualquer ordem representa a formalização de ideias utilizadas para calcular pontos críticos e tricríticos e ainda amplia tais ideias. De posse desta dedução pode-se compreender os critérios de tricriticalidade e, com isso, através de uma abordagem via problema de otimização global pode-se fazer o cálculo de pontos tricríticos utilizando um método numérico adequado de otimização global. Para evitar um excesso de custo computacional com rotinas numéricas utilizou-se aproximações na forma de diferenças finitas dos termos que compõem a função objetivo. Para simular a relação P v - T optou-se pela equação de estado cúbica de Peng-Robinson e pela regra clássica de fluidos de van der Vaals, para modelagem do problema também se calculou os tensores de ordem 2, 3, 4 e 5 da função do teste de estabilidade. Os resultados obtidos foram comparados com dados experimentais e por resultados obtidos com outros autores que utilizaram métodos numéricos, equação de estado ou abordagem diferente das utilizadas neste trabalho.
Resumo:
A descoberta de reservatórios de petróleo na camada do pré-sal abriu novas perspectivas para a economia brasileira. A grandes profundidades, com elevado teor de CO2 e submetidos a altas pressões e temperaturas, a exploração de petróleo das camadas de pré-sal constitui um considerável desafio tecnológico. Neste contexto, o conhecimento dos coeficientes de compressibilidade são fundamentais para o estudo do comportamento termodinâmico e escoamento dos fluidos destes campos de produção. Com este objetivo, foram determinadas experimentalmente nesta dissertação a massa específica e a velocidade do som de sistemas envolvendo quatro hidrocarbonetos puros: n-decano, n-hexadecano, decalina e tetralina, assim como para sistemas multicompostos envolvendo estes hidrocarbonetos e para uma amostra de condensado de petróleo. Os resultados obtidos permitiram o cálculo dos coeficientes de compressibilidade isentrópica, isotérmica e isentálpica. É apresentada uma avaliação sobre a capacidade de se correlacionar dados experimentais de velocidade do som aos dados calculados pelas equações de estado de Peng-Robinson e Lee-Kesler com regras de mistura: (i) Spencer e Danner e (ii) Lee-Kesler
Resumo:
A água é um bem essencial a todos os seres vivos. Porém, o homem não tem dado o valor e atenção necessários para a preservação dessa riqueza. Por mais que o ser humano não faça a água desaparecer do planeta, ele tem contribuído e muito para o decréscimo de sua qualidade. Dentre as várias atividades antropogênicas, que tem contribuído para a poluição das águas, destaca-se a atividade industrial. A indústria têxtil, por exemplo, libera enormes volumes de dejetos, destacando-se os corantes, além deles prejudicarem a ocorrência de fotossíntese, apresentam elevada toxicidade ao meio marinho. Com isso, este trabalho visa estudar a degradação do corante Alaranjado de Metila via catálise heterogênea. Neste estudo, foram realizadas a preparação e a caracterização de partículas metálicas estabilizadas em sílica, sendo essas partículas com diferentes teores de ferro (50 %wt, 25 %wt e 5 %wt) aderido ao suporte. Após o preparo dos catalisadores realizou-se o estudo de sua eficiência frente a diferentes parâmetros como: quantidade de catalisador, temperatura e pH. Por meio dos testes realizados foi possível observar que a quantidade do catalisador influência a reação de redução do corante Alaranjado de Metila. Porém, quando se atinge o ponto de saturação, mesmo que se adicione mais catalisador não é possível aumentar a degradação. Através da variação da temperatura, observou-se que quanto maior a temperatura maior a degradação do corante. Isso pode ser explicado devido o aumento do número de colisões entre os sítios ativos do catalisador e as moléculas do corante. E por meio da variação de pH, concluiu-se que pHs ácidos permitem que a reação de redução do corante ocorra mais rápido e pHs elevados tornam a reação de degradação do corante mais lenta, porém ainda assim ocorrem de forma satisfatória. O catalisador pôde ser reutilizado por até 3 vezes, sem nenhum tratamento prévio. Os catalisadores a 50 %wt, assim como, a 25 %wt foram capazes de degradar o corante de forma eficiente, porém o catalisador a 5 %wt não se mostrou ser eficaz. Foram realizados testes sob radiação microondas e a reação de redução ocorreu de forma muito eficaz, apresentando 100% de degradação em apenas 2 minutos. Além disso, realizou-se o estudo cinético, onde segundo dados experimentais, as reações foram classificadas como sendo de primeira ordem
Resumo:
Esse trabalho apresenta a técnica de fluorescência de raios X por dispersão de energia (EDXRF) para calcular a espessura de filmes metálicos finos por ser de custo relativamente baixo, não destrutiva e que permite também uma análise qualitativa e até quantitativa dos elementos do revestimento. As espessuras do Níquel, Zinco e Cromo sobre aço, foram calculadas utilizando cinco procedimentos diferentes e todas as relações matemáticas obtidas foram baseadas na lei de atenuação de Beer-Lambert, que relaciona as intensidades Kα e/ou Kβ e as relações específicas do material (coeficiente de atenuação, μm). Os resultados experimentais para as espessuras do Zinco e Níquel, utilizando somente a intensidade Kα, apresentaram valores próximos dos valores estimados. Quando foi considerada a razão Kα/Kβ, os resultados experimentais divergiram bastante do estimado. Para calcular a espessura do Cromo foi necessário utilizar um método em que as camadas são calculadas separadamente, pois o revestimento de Cromo é composto por múltiplas camadas (Cromo, Cobre e Níquel), Os resultados para a espessura do Cromo foram satisfatórios.
Resumo:
257 P.
Resumo:
A osteoartrite (OA) é uma doença degenerativa que afeta grande parte da população e resulta em significativa morbidade e incapacidade. O presente estudo teve como objetivo investigar os efeitos periféricos da S(+) cetamina na expressão da ciclo-oxigenase 2 (COX-2). Foram utilizados modelos experimentais de osteoartrite em ratos. Inicialmente setenta e dois ratos foram utilizados no estudo. Foram divididos em três grupos de 24 animais cada. Em dois grupos foi induzida a OA através de 2mg de MIA (monoiodo acetato de sódio) por via intra-articular (i.a), em um volume máximo de 50μL e em um dos grupos não foi realizada a indução da OA. No sétimo dia após a indução, dois grupos, incluindo o sem OA, receberam injeção i.a de salina 0,9% em volume máximo de 50μL e o terceiro grupo recebeu injeção de S(+) cetamina na dose de 0,5mg/kg. Nos dias 7, 14, 21 e 28 os animais foram anestesiados e sacrificados para coleta da membrana sinovial e análise imuno-histoquímica da ciclo-oxigenase-2. Durante o estudo ocorreram 29 perdas do material a ser analisado, totalizando um n = 43. O protocolo adotado para a interpretação imuno-histoquímica foi a imunomarcação citoplasmática da COX-2 em células da membrana sinovial, tecido conjuntivo e adiposo, conforme a intensidade da coloração. A análise dos resultados foi realizada através do teste do quiquadrado. A reatividade da COX-2 foi positiva em 53,8% dos animais do grupo sem OA, em 60% do grupo OA com salina e em 80% dos animais do grupo OA com cetamina, sem diferença estatisticamente significante entre os grupos (p = 0,3069). Esse estudo sugeriu que a S(+) cetamina por via intra-articular não inibiu a expressão da COX-2 em modelos de osteoartrite em ratos.
Resumo:
Esta dissertação aplica a regularização por entropia máxima no problema inverso de apreçamento de opções, sugerido pelo trabalho de Neri e Schneider em 2012. Eles observaram que a densidade de probabilidade que resolve este problema, no caso de dados provenientes de opções de compra e opções digitais, pode ser descrito como exponenciais nos diferentes intervalos da semireta positiva. Estes intervalos são limitados pelos preços de exercício. O critério de entropia máxima é uma ferramenta poderosa para regularizar este problema mal posto. A família de exponencial do conjunto solução, é calculado usando o algoritmo de Newton-Raphson, com limites específicos para as opções digitais. Estes limites são resultados do princípio de ausência de arbitragem. A metodologia foi usada em dados do índice de ação da Bolsa de Valores de São Paulo com seus preços de opções de compra em diferentes preços de exercício. A análise paramétrica da entropia em função do preços de opções digitais sínteticas (construídas a partir de limites respeitando a ausência de arbitragem) mostraram valores onde as digitais maximizaram a entropia. O exemplo de extração de dados do IBOVESPA de 24 de janeiro de 2013, mostrou um desvio do princípio de ausência de arbitragem para as opções de compra in the money. Este princípio é uma condição necessária para aplicar a regularização por entropia máxima a fim de obter a densidade e os preços. Nossos resultados mostraram que, uma vez preenchida a condição de convexidade na ausência de arbitragem, é possível ter uma forma de smile na curva de volatilidade, com preços calculados a partir da densidade exponencial do modelo. Isto coloca o modelo consistente com os dados do mercado. Do ponto de vista computacional, esta dissertação permitiu de implementar, um modelo de apreçamento que utiliza o princípio de entropia máxima. Três algoritmos clássicos foram usados: primeiramente a bisseção padrão, e depois uma combinação de metodo de bisseção com Newton-Raphson para achar a volatilidade implícita proveniente dos dados de mercado. Depois, o metodo de Newton-Raphson unidimensional para o cálculo dos coeficientes das densidades exponenciais: este é objetivo do estudo. Enfim, o algoritmo de Simpson foi usado para o calculo integral das distribuições cumulativas bem como os preços do modelo obtido através da esperança matemática.
Resumo:
No presente trabalho foram utilizados modelos de classificação para minerar dados relacionados à aprendizagem de Matemática e ao perfil de professores do ensino fundamental. Mais especificamente, foram abordados os fatores referentes aos educadores do Estado do Rio de Janeiro que influenciam positivamente e negativamente no desempenho dos alunos do 9 ano do ensino básico nas provas de Matemática. Os dados utilizados para extrair estas informações são disponibilizados pelo Instituto Nacional de Estudos e Pesquisas Educacionais Anísio Teixeira que avalia o sistema educacional brasileiro em diversos níveis e modalidades de ensino, incluindo a Educação Básica, cuja avaliação, que foi foco deste estudo, é realizada pela Prova Brasil. A partir desta base, foi aplicado o processo de Descoberta de Conhecimento em Bancos de Dados (KDD - Knowledge Discovery in Databases), composto das etapas de preparação, mineração e pós-processamento dos dados. Os padrões foram extraídos dos modelos de classificação gerados pelas técnicas árvore de decisão, indução de regras e classificadores Bayesianos, cujos algoritmos estão implementados no software Weka (Waikato Environment for Knowledge Analysis). Além disso, foram aplicados métodos de grupos e uma metodologia para tornar as classes uniformemente distribuídas, afim de melhorar a precisão dos modelos obtidos. Os resultados apresentaram importantes fatores que contribuem para o ensino-aprendizagem de Matemática, assim como evidenciaram aspectos que comprometem negativamente o desempenho dos discentes. Por fim, os resultados extraídos fornecem ao educador e elaborador de políticas públicas fatores para uma análise que os auxiliem em posteriores tomadas de decisão.
Resumo:
Nos dias atuais, a maioria das operações feitas por empresas e organizações é armazenada em bancos de dados que podem ser explorados por pesquisadores com o objetivo de se obter informações úteis para auxílio da tomada de decisão. Devido ao grande volume envolvido, a extração e análise dos dados não é uma tarefa simples. O processo geral de conversão de dados brutos em informações úteis chama-se Descoberta de Conhecimento em Bancos de Dados (KDD - Knowledge Discovery in Databases). Uma das etapas deste processo é a Mineração de Dados (Data Mining), que consiste na aplicação de algoritmos e técnicas estatísticas para explorar informações contidas implicitamente em grandes bancos de dados. Muitas áreas utilizam o processo KDD para facilitar o reconhecimento de padrões ou modelos em suas bases de informações. Este trabalho apresenta uma aplicação prática do processo KDD utilizando a base de dados de alunos do 9 ano do ensino básico do Estado do Rio de Janeiro, disponibilizada no site do INEP, com o objetivo de descobrir padrões interessantes entre o perfil socioeconômico do aluno e seu desempenho obtido em Matemática na Prova Brasil 2011. Neste trabalho, utilizando-se da ferramenta chamada Weka (Waikato Environment for Knowledge Analysis), foi aplicada a tarefa de mineração de dados conhecida como associação, onde se extraiu regras por intermédio do algoritmo Apriori. Neste estudo foi possível descobrir, por exemplo, que alunos que já foram reprovados uma vez tendem a tirar uma nota inferior na prova de matemática, assim como alunos que nunca foram reprovados tiveram um melhor desempenho. Outros fatores, como a sua pretensão futura, a escolaridade dos pais, a preferência de matemática, o grupo étnico o qual o aluno pertence, se o aluno lê sites frequentemente, também influenciam positivamente ou negativamente no aprendizado do discente. Também foi feita uma análise de acordo com a infraestrutura da escola onde o aluno estuda e com isso, pôde-se afirmar que os padrões descobertos ocorrem independentemente se estes alunos estudam em escolas que possuem infraestrutura boa ou ruim. Os resultados obtidos podem ser utilizados para traçar perfis de estudantes que tem um melhor ou um pior desempenho em matemática e para a elaboração de políticas públicas na área de educação, voltadas ao ensino fundamental.
Resumo:
A tuberculose (TB) é uma doença que foi declarada pela Organização Mundial de Saúde como emergência mundial em 1993. As ferramentas disponíveis hoje para controle da TB são: o diagnóstico precoce e o tratamento eficiente. Porém, o abandono do tratamento de TB é um problema enfrentado mundialmente em proporções que podem variar entre 3% a 80%. Por isso, a identificação dos fatores que são preditores do abandono do tratamento de TB pode ajudar a desenvolver melhores estratégias para o seu controle. O objetivo deste trabalho é, através de uma metanálise, fazer uma estimativa sumária da medida de associação entre cada um dos fatores (a) relacionados ao serviço de saúde, (b) relacionado ao quadro clínico e à terapia da TB e (c) relacionados aos indivíduos e o abandono do tratamento de TB. A estratégia de busca eletrônica remota para a recuperação de publicações relevantes foi desenvolvida de forma específica para as diferentes bases consideradas relevantes (MEDLINE [Pubmed] e LILCS). Buscas por referências cruzadas, além da consulta à base de revisões sistemáticas COCHRANE, também foram realizadas. Investigações foram incluídas se fossem trabalhos observacionais ou experimentais que estudem fatores de risco ou preditores do desfecho de interesse (abandono do tratamento de tuberculose) através de comparações de dois ou mais grupos e se seus dados pudessem ser extraídos. Dois revisores classificaram os trabalhos e extraíram dados de forma mascarada e as discordâncias resolvidas. Mais de 190 textos completos foram aptos à combinação de dados. Destes, foi possível extrair dados para combinação de 40 exposições. Destas, 19 foram demonstradas nesta investigação. Das 19 demonstradas, 13 exposições estudadas apresentaram associação e poderiam ser considerados preditores (sexo masculino, alcoolismo, infecção pelo HIV/SIDA, uso de drogas ilícitas, nacionalidade estrangeira, analfabetismo, retratamento, baciloscopia positiva, abandono prévio, tratamento de curta duração, acesso fácil à unidade de saúde, treinamento para adesão, tuberculose extrapulmonar) e seis não apresentaram associação (desemprego, efeitos adversos, tuberculose resistente, necessidade de hospitalização, demora para o início do tratamento, espera longa para a consulta). Porém, essas associações devem ser consideradas de forma conservadora devido à elevada heterogeneidade encontrada em todas as exposições. Apenas cinco exposições apresentaram explicação parcial e uma apresentou explicação total para a heterogeneidade. O viés de publicação foi detectado em apenas duas das 19 exposições.
Resumo:
Diversas aplicações industriais relevantes envolvem os processos de adsorção, citando como exemplos a purificação de produtos, separação de substâncias, controle de poluição e umidade entre outros. O interesse crescente pelos processos de purificação de biomoléculas deve-se principalmente ao desenvolvimento da biotecnologia e à demanda das indústrias farmacêutica e química por produtos com alto grau de pureza. O leito móvel simulado (LMS) é um processo cromatográfico contínuo que tem sido aplicado para simular o movimento do leito de adsorvente, de forma contracorrente ao movimento do líquido, através da troca periódica das posições das correntes de entrada e saída, sendo operado de forma contínua, sem prejuízo da pureza das correntes de saída. Esta consiste no extrato, rico no componente mais fortemente adsorvido, e no rafinado, rico no componente mais fracamente adsorvido, sendo o processo particularmente adequado a separações binárias. O objetivo desta tese é estudar e avaliar diferentes abordagens utilizando métodos estocásticos de otimização para o problema inverso dos fenômenos envolvidos no processo de separação em LMS. Foram utilizados modelos discretos com diferentes abordagens de transferência de massa, com a vantagem da utilização de um grande número de pratos teóricos em uma coluna de comprimento moderado, neste processo a separação cresce à medida que os solutos fluem através do leito, isto é, ao maior número de vezes que as moléculas interagem entre a fase móvel e a fase estacionária alcançando assim o equilíbrio. A modelagem e a simulação verificadas nestas abordagens permitiram a avaliação e a identificação das principais características de uma unidade de separação do LMS. A aplicação em estudo refere-se à simulação de processos de separação do Baclofen e da Cetamina. Estes compostos foram escolhidos por estarem bem caracterizados na literatura, estando disponíveis em estudos de cinética e de equilíbrio de adsorção nos resultados experimentais. De posse de resultados experimentais avaliou-se o comportamento do problema direto e inverso de uma unidade de separação LMS visando comparar os resultados obtidos com os experimentais, sempre se baseando em critérios de eficiência de separação entre as fases móvel e estacionária. Os métodos estudados foram o GA (Genetic Algorithm) e o PCA (Particle Collision Algorithm) e também foi feita uma hibridização entre o GA e o PCA. Como resultado desta tese analisouse e comparou-se os métodos de otimização em diferentes aspectos relacionados com o mecanismo cinético de transferência de massa por adsorção e dessorção entre as fases sólidas do adsorvente.
Resumo:
Em uma grande gama de problemas físicos, governados por equações diferenciais, muitas vezes é de interesse obter-se soluções para o regime transiente e, portanto, deve-se empregar técnicas de integração temporal. Uma primeira possibilidade seria a de aplicar-se métodos explícitos, devido à sua simplicidade e eficiência computacional. Entretanto, esses métodos frequentemente são somente condicionalmente estáveis e estão sujeitos a severas restrições na escolha do passo no tempo. Para problemas advectivos, governados por equações hiperbólicas, esta restrição é conhecida como a condição de Courant-Friedrichs-Lewy (CFL). Quando temse a necessidade de obter soluções numéricas para grandes períodos de tempo, ou quando o custo computacional a cada passo é elevado, esta condição torna-se um empecilho. A fim de contornar esta restrição, métodos implícitos, que são geralmente incondicionalmente estáveis, são utilizados. Neste trabalho, foram aplicadas algumas formulações implícitas para a integração temporal no método Smoothed Particle Hydrodynamics (SPH) de modo a possibilitar o uso de maiores incrementos de tempo e uma forte estabilidade no processo de marcha temporal. Devido ao alto custo computacional exigido pela busca das partículas a cada passo no tempo, esta implementação só será viável se forem aplicados algoritmos eficientes para o tipo de estrutura matricial considerada, tais como os métodos do subespaço de Krylov. Portanto, fez-se um estudo para a escolha apropriada dos métodos que mais se adequavam a este problema, sendo os escolhidos os métodos Bi-Conjugate Gradient (BiCG), o Bi-Conjugate Gradient Stabilized (BiCGSTAB) e o Quasi-Minimal Residual (QMR). Alguns problemas testes foram utilizados a fim de validar as soluções numéricas obtidas com a versão implícita do método SPH.