82 resultados para Protocolos : Difusao confiavel
em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul
Resumo:
No projeto de arquiteturas computacionais, a partir da evolução do modelo cliente-servidor, surgiram os sistemas distribuídos com a finalidade de oferecer características tais como: disponibilidade, distribuição, compartilhamento de recursos e tolerância a falhas. Estas características, entretanto, não são obtidas de forma simples. As aplicações distribuídas e as aplicações centralizadas possuem requisitos funcionais distintos; aplicações distribuídas são mais difíceis quanto ao projeto e implementação. A complexidade de implementação é decorrente principalmente da dificuldade de tratamento e de gerência dos mecanismos de comunicação, exigindo equipe de programadores experientes. Assim, tem sido realizada muita pesquisa para obter mecanismos que facilitem a programação de aplicações distribuídas. Observa-se que, em aplicações distribuídas reais, mecanismos de tolerância a falhas constituem-se em uma necessidade. Neste contexto, a comunicação confiável constitui-se em um dos blocos básicos de construção. Paralelamente à evolução tanto dos sistemas distribuídos como da área de tolerância a falhas, foi possível observar também a evolução das linguagens de programação. O sucesso do paradigma de orientação a objetos deve-se, provavelmente, à habilidade em modelar o domínio da aplicação ao invés da arquitetura da máquina em questão (enfoque imperativo) ou mapear conceitos matemáticos (conforme o enfoque funcional). Pesquisadores demonstraram que a orientação a objetos apresenta-se como um modelo atraente ao desenvolvimento de aplicações distribuídas modulares e tolerantes a falhas. Diante do contexto exposto, duas constatações estimularam basicamente a definição desta dissertação: a necessidade latente de mecanismos que facilitem a programação de aplicações distribuídas tolerantes a falhas; e o fato de que a orientação a objetos tem-se mostrado um modelo promissor ao desenvolvimento deste tipo de aplicação. Desta forma, nesta dissertação definem-se classes para a comunicação do tipo unicast e multicast, nas modalidades de envio confiável e não-confiável. Além destes serviços de comunicação básicos, foram desenvolvidas classes que permitem referenciar os participantes da comunicação através de nomes. As classes estão organizadas na forma de um pacote, compondo um framework. Sua implementação foi desenvolvida usando Java. Embora não tivessem sido requisitos básicos, as opções de projeto visaram assegurar resultados aceitáveis de desempenho e possibilidade de reuso das classes. Foram implementados pequenos trechos de código utilizando e testando a funcionalidade de cada uma das classes de comunicação propostas.
Resumo:
Este trabalho trata da utilização de protocolos de comunicação de grupo para a disseminação de escritas em arquivos replicados. A replicação de arquivos tem como objetivo aumentar a disponibilidade dos dados mesmo mediante a ocorrência de alguma falha. Existem duas abordagens principais para a replicação de arquivos: a da cópia primária e das cópias ativas. Em ambas as abordagens é necessário que seja mantida a integridade dos dados replicados, de forma que todos cópias dos arquivos replicados estejam no mesmo estado. Essa integridade pode ser mantida pela escolha correta de uma estratégia de disseminação de escritas. Como os servidores que mantém cópias do mesmo arquivo formam um grupo de replicação, a disseminação de escritas pode ser feita através de comunicação de grupos. Neste trabalho são apresentados os sistemas de comunicação de grupo xAMp, da Universidade de Lisboa; Totem, Universidade da Califórnia; Transis da Universidade de Hebréia de Jerusalém; Horus, da Universidade de Cornell e Newtop da Universidade de Newcastle. Todos os sistemas descritos possuem características de comunicação de grupo e membership que permitem a sua utilização na disseminação de escritas para arquivos replicados. Este trabalho descreve, também, o protótipo PDERM (Protótipo para a Disseminação de Escritas em arquivos Replicados, através de Multicast), implementado para analisar o comportamento de um sistema de comunicação de grupo, o xAMp, na disseminação de escritas em arquivos replicados pela estratégia da cópia primária. Foi analisado o aspecto da manutenção da integridade das réplicas mesmo na ocorrência de falha do servidor primário.
Resumo:
Mecanismos de comunicação entre processos são fundamentais no desenvolvimento de sistemas distribuídos, já que constituem o único meio de compartilhar dados entre processos que não dispõem de memória comum. Um dos principais mecanismos de comunicação utilizados é a troca de mensagens entre os processos componentes do sistema. Existem muitas aplicações que são compostas por um conjunto de processos que cooperam para realizar uma determinada tarefa e que são mais facilmente construídas se o sistema operacional oferecer a possibilidade de se enviar uma mensagem a diversos destinos. Neste caso são necessários mecanismos que permitam a difusão confiável de uma mensagem para um grupo de processos em uma única operação. Tendo em vista esta necessidade, diversos protocolos têm sido apresentados na literatura para permitir a comunicação entre um grupo de processos com diferentes graus de complexidade e de desempenho. Este trabalho apresenta um ambiente para desenvolvimento e utilização de protocolos de comunicação em grupo, denominado FlexGroup. O ambiente divide os protocolos em suas características fundamentais, permitindo que estas características possam ser desenvolvidas separadamente como subprotocolos. Os subprotocolo são interligados através de uma interface comum e gerenciados pelo núcleo do ambiente. A comunicação entre as diversas máquinas da rede é gerenciada pelo FlexGroup, permitindo que o desenvolvedor de um novo subprotocolo possa somente se focar nas características específicas do seu protocolo. Esta modularidade permite, ainda, que apenas as partes de interesse de um novo protocolo precisem ser implementadas, além de também viabilizar a criação de um protocolo baseado nos já existentes no ambiente. Além disso, o ambiente permite que as aplicações de comunicação em grupo possam definir, através de uma biblioteca, o conjunto de subprotocolos que desejam utilizar, em tempo de execução, sem necessidade de conhecer a implementação interna dos subprotocolos.. Da mesma forma, alguém que se proponha a realizar comparações com os protocolos existentes, pode utilizar os diversos subprotocolos e as aplicações existentes, bastando alterar os protocolos utilizados em tempo de execução e avaliando somente as características que deseje analisar.
Resumo:
A área de gerência de rede cresce à medida que redes mais seguras e menos vulneráveis são necessárias, e as aplicações que concorrem pelo seu uso, necessitam de alta disponibilidade e qualidade de serviço. Quando estamos focando a gerência da infra-estrutura física das redes de computadores, por exemplo, a taxa de uso de um segmento de rede, podemos dizer que esse tipo de gerenciamento encontra-se em um patamar bastante sedimentado e testado. Por outro lado, há ainda lacunas para pesquisar na área de gerenciamento de protocolos de alto nível. Entender o comportamento da rede como um todo, conhecer quais hosts mais se comunicam, quais aplicações geram mais tráfego e, baseado nessas estatísticas, gerar uma política para a distribuição de recursos levando em consideração as aplicações críticas é um dever nas redes atuais. O grupo de trabalho IETF RMON padronizou, em 1997, a MIB RMON2. Ela foi criada para permitir a monitoração de protocolos das camadas superiores (rede, transporte e aplicação), a qual é uma boa alternativa para realizar as tarefas de gerenciamento recém mencionadas. Outro problema para os gerentes de rede é a proliferação dos protocolos de alto nível e aplicações corporativas distribuídas. Devido a crescente quantidade de protocolos e aplicações sendo executados sobre as redes de computadores, os softwares de gerenciamento necessitam ser adaptados para serem capazes de gerenciá-los. Isso, atualmente, não é fácil porque é necessário usar linguagens de programação de baixo nível ou atualizar o firmware dos equipamentos de monitoração, como ocorre com os probes RMON2. Considerando este contexto, esse trabalho propõe o desenvolvimento de um agente RMON2 que contemple alguns grupos dessa MIB. O agente baseia-se na monitoração protocolos de alto nível e aplicações que são executados sobre o IP (Internet Protocol) e Ethernet (na camada de enlace). Além da implementação do agente, o trabalho apresenta um estudo de como obter estatísticas do agente RMON2 e usá-las efetivamente para gerenciar protocolos de alto nível e aplicações.
Resumo:
As redes de computadores experimentam um grande crescimento não apenas em tamanho, mas também no número de serviços oferecidos e no número de protocolos de alto nível e aplicações que são executados sobre elas. Boa parte desses software (ex.: ICQ e Napster), em geral, não está diretamente ligada a aplicações críticas, mas o seu uso não controlado pode degradar o desempenho da rede. Para que se possa medir o impacto dos mesmos sobre a infra-estrutura, mecanismos de gerência ligados à contabilização e caracterização de tráfego são desejáveis. Por outro lado, alguns protocolos, serviços e aplicações (ex. servidores DNS e Web) suportam aplicações e precisam ser monitorados e gerenciados com maior atenção. Para essa classe de software de rede, a simples contabilização e caracterização de tráfego não é suficiente; tarefas de gerência como teste de serviços, detecção e manipulação de falhas, medição de desempenho e detecção de intrusão são importantes para garantir alta disponibilidade e eficiência da rede e aplicações. As ferramentas existentes para essa finalidade são, entre aspectos, (a) não integradas (necessidade de uma ferramenta para monitorar cada aplicação), (b) centralizadas (não oferecem suporte à distribuição de tarefas de gerenciamento) e (c) pouco flexíveis (dificuldade em gerenciar novos protocolos, serviços e aplicações). Nesse contexto, a tese propõe uma arquitetura, centrada na monitoração passiva em temporal do tráfego de rede, para gerenciamento distribuído de protocolos de alto nível, serviços e aplicações em rede. Baseada da MIB (Management Information Base) Script do IETF (Internet Engineering Task Force), a arquitetura Trace oferece mecanismos para a delegação de tarefas de gerenciamento a gerentes intermediários, que interagem com agentes de monitoração e agentes de ação para executá-las. A tese propõe também PTSL (Protocol Trace Specification Language), uma linguagem gráfica/textual criada para permitir que gerentes de rede especificam as interações de protocolos (traços) que lhes interessam monitorar. As especificações são usadas pelso gerentes intermediários para programar os agentes de monitoração. Uma vez programadas, esses agentes passam a monitorar a ocorrência dos traços.As informações obtidas são analisadas pelos agentes intermediários, que podem requisitar de ação a execução de procedimentos (ex: scripts Perl), possibilitando a automação de diversas tarefas de gerenciamento. A arquitetura proposta é validada por um protótipo: a plataforma de gerenciamento Trace.
Resumo:
O ambiente de concorrência em que estão inseridas as empresas tem pressionado pela busca constante de novas ferramentas gerenciais. Os hospitais não estão alheios a este desafio e encontram-se em constante transformação ao encontro da excelência assistencial. A existência de um sistema de custos adequado, sendo um instrumento de informação acurado que auxilia na melhoria dos processos internos e nas tomadas de decisão como um todo, apresenta-se como elemento estratégico importante para a competitividade de um hospital. O propósito deste estudo de caso, realizado no primeiro semestre de 2002, foi o de desenvolver e validar um modelo de sistema de custos integrado aos protocolos médicos e rotinas assistenciais da Unidade de Terapia Intensiva (UTI) do Hospital Mãe de Deus de Porto Alegre - RS. O modelo foi matematicamente construído, embasado no método ABC (Actvity-Based Costing) para a alocação dos custos fixos e indiretos, e no método do Custo-Padrão real (corrente) para a alocação dos custos diretos, tendo como pressupostos o custeio dos diversos serviços e a conseqüente promoção de melhorias contínuas e auxílio ao processo decisório como vantagens competitivas nas negociações com fontes pagadoras. O desenvolvimento do modelo deu-se através do mapeamento de dez protocolos aprovados pela Comissão de Ética do hospital e representativos da assistência diversificada da UTI, seguido da alocação dos custos fixos e indiretos com mão-de-obra, depreciação, manutenção e gasoterapia, através do estabelecimento de direcionadores de tempo (mão-de-obra) e intensidade (demais custos), baseados no percentual de participação dos recursos ditados pelos protocolos. Os custos diretos com materiais e medicamentos foram alocados pela média do custo-padrão corrente. A coleta de dados primários, para o estabelecimento dos direcionadores de custos, foi realizada junto à equipe assistencial e utilizou-se medidas estatísticas de localização, dispersão e probabilidade para dar mais confiabilidade às análises. O modelo foi implementado computacionalmente, utilizando-se o software EXCEL da Microsoft. A validação foi dada pela comparação dos resultados entre o modelo desenvolvido e o demonstrativo contábil fornecido pela Controladoria do hospital. Concluiu-se que o modelo desenvolvido de sistema de custos integrado aos protocolos médicos atendeu os objetivos pretendidos, sendo um instrumento gerencial flexível e de fácil implementação, que deve ser utilizado pelo controller do hospital no auxílio ao processo decisório de gestores e da alta administração. Em adição, mostrou-se capaz de embasar tomadas de decisão no longo prazo em relação à capacidade instalada e oportunidades de redimensionamento de quadro de médicos plantonistas e enfermeiros.
Resumo:
O presente estudo teve como objetivo avaliar a eficácia de protocolos de higienização de alface adotados em restaurantes de Porto Alegre. Numa primeira etapa foram aplicados questionários em restaurantes de dois bairros da cidade, a partir dos quais definiram-se os tratamentos a serem testados. Na segunda fase, amostras de alface crespa, adquiridas no comércio, foram submetidas a: lavagem com água (T1); imersão em água (T2); imersão em solução de água sanitária (200ppm de cloro livre) por 15 minutos (T3); e por 30 minutos (T4); imersão em solução de vinagre a 2% (T5); e a 20% (T6). Todos os tratamentos foram realizados em dez repetições. A média da redução (log10) obtida variou de 0,64 (T1) a 2,46 (T4) para mesófilos aeróbios e de 1,09 (T2) a 2,34 (T4) para coliformes totais. A partir disso, verificou-se que o protocolo adotado na maioria dos restaurantes (imersão em água) não garantiu uma redução importante na população microbiana (0,75 log10 UFC/g para mesófilos aeróbios) enquanto T4 foi o mais eficaz para a higienização das alfaces.
Resumo:
Trata-se de um estudo descritivo do tipo exploratório que utilizou uma abordagem combinada quantitativa e qualitativa para caracterizar as famílias de crianças em situação de violência intrafamiliar, atendidas pela “Equipe de Proteção às Crianças Vítimas de Maus-tratos e Violência Sexual”, no Hospital de Clínicas de Porto Alegre (HCPA), no ano de 1999. A coleta de dados foi realizada por um roteiro estruturado elaborado pela pesquisadora, constituído de quatro dimensões pré-estabelecidos – sócioeconômica, estrutura e funcionamento familiar, situação atual do abuso do contexto familiar e história pregressa da família – preenchido através dos prontuários e protocolos das crianças atendidas no HCPA. Os dados quantificáveis foram analisados com auxílio da estatística descritiva, e os qualitativos pelo método de análise de conteúdo, segundo Bardin (2000). Assim formaram sete categorias: organização familiar, relacionamento familiar, percepção dos adultos sobre a criança vítima de violência, justificativas de utilização da violência, ações maternas frente à violência, motivos da procura do serviço de saúde e a trajetória da família na instituição hospitalar. A maioria das famílias pesquisadas possuíam precária inserção sócioeconômica com baixo nível de escolaridade, desempregadas, inseridas no mercado formal e/ou informal. Eram predominantes da região central de Porto Alegre, demonstrando uma diversidade de arranjos e fragilidade nas relações familiares, com confusão de papéis e disputa de autoridade. Algumas famílias registraram ausência da figura paterna Características importantes constatadas entre os adultos: progenitores adolescentes, jovens, vivendo responsabilidade de adulto, o elevado padrão do uso abusivo de drogas, presença de aleitamento materno e gravidez não desejada. Houve um predomínio de negligência em relação a outras formas de violência praticadas, sendo que o ato violento foi cometido de forma intencional, mas o agressor não apresentava justificativa para o fato. A mãe configurou-se como a maior agressora e, simultaneamente, a principal cuidadora da criança. Nesse estudo, a criança mais atingida foi a do sexo masculino, raça branca, evidenciando lesão e apresentando longo período de convivência com o agressor que sempre era alguém muito próximo a ela. As famílias envolvidas procuraram atendimento de forma espontânea, mas a queixa de violência estava implícita. A pesquisa permitiu contextualizar a violência como social e histórica, presente em larga escala na sociedade brasileira uma sociedade desigual na qual se pratica violência dentro da família contra a criança, legitimando uma forma de poder estruturante nas relações sociais e na interação com fatores individuais econômicos e culturais. Assim, verificou-se a fundamental importância da atuação do enfermeiro no enfrentamento da problemática questão da violência intrafamiliar contra a criança.
Resumo:
O modelo de objetos apresenta-se como um modelo promissor para o desenvolvimento de software tolerante a falhas em virtude de características inerentes ao próprio modelo de objetos, tais como abstração de dados, encapsulamento, herança e reutilização de objetos (componentes). O uso de técnicas orientadas a objetos facilita o controle da complexidade do sistema porque promove uma melhor estruturação de seus componentes e também permite que componentes já validados sejam reutilizados [LIS96]. Técnicas básicas para tolerância a falhas em software baseiam-se na diversidade de projeto e de implementação de componentes considerados críticos. Os componentes diversitários são gerenciados através de alguma técnica que tenha por objetivo assegurar o fornecimento do serviço solicitado, como, por exemplo, a conhecida técnica de blocos de recuperação. Reflexão Computacional é a capacidade que um sistema tem de fazer computações para se auto analisar. Ela é obtida quando o programa pára sua execução por um período de tempo para fazer computações sobre si próprio; analisa seu estado, se o processamento está correto, se pode prosseguir com a execução e atingir o objetivo satisfatoriamente; se não precisa mudar de estratégia ou algoritmo de execução, fazendo, ainda, processamentos necessários para o sucesso da execução. Um sistema de programação distribuída consiste basicamente em vários aplicativos executados em diferentes computadores, os quais realizam troca de mensagens para solucionar um problema comum. A comunicação entre os computadores é realizada através da rede que os interliga. As Redes que controlam sistemas críticos são normalmente de pequena escala pois redes de grandes dimensões podem apresentar atrasos e baixa confiabilidade. Portanto, a abordagem aqui proposta consiste em utilizar, em um ambiente distribuído, uma arquitetura reflexiva aliada a técnicas do domínio da tolerância a falhas para promover a separação entre as atividades de controle, salvamento, recuperação, distribuição e validação de componentes e as funcionalidades executadas pelo próprio componente, a fim de que falhas não venham a prejudicar a disponibilidade, confiabilidade e clareza de determinadas computações. A proposta apóia-se num estudo de caso, implementado na linguagem de programação Java, com seus protocolos de reflexão computacional e de comunicação.
Resumo:
Usamos a teoria quase-linear para estudar os efeitos do transporte radial de partículas na eficiência da geração de corrente por ondas do tipo híbrida inferior (lower hybrid ou LH), em um tokamak modelado como uma lâmina. Nossos resultados numéricos foram obtidos com cinco diferentes modelos do termo de transporte e indicaram que embora a potência absorvida e a corrente gerada possam ser modificadas por efeito do transporte, a proporção de variação dessas quantidades não é muito sensível a uma forma particular do termo de transporte. Na formulação quase-linear utilizada, a evolução no tempo da função distribuição de elétrons, em um dado ponto da geometria de lâmina proposta, ocorre sob a ação de ondas do tipo híbrida inferior, colisões e transporte, e é descrita pela seguinte equação: 8rfe = (8rfehH + (8rfe)COL + (8rfeh . Oterceiro termo pretende demonstrar a natureza e a magnitude dos efeitos de transporte, e é dado pela seguinte forma: (8rfeh = 8s [DT(S) 8sie] , com um coeficiente para difusão espacial dependente de posição. Utilizamos cinco formas totalmente arbitrárias para a dependência de posição, com as quais pretendemos verificar a sensibilidade do processo de geração de corrente a aspectos do termo de difusão.
Resumo:
Replicação de objetos é usada para garantir uma maior disponibilidade de recursos em um sistema distribuído. Porém, com a replicação, surgem problemas como o controle da consistência das réplicas e onde estas réplicas devem estar posicionadas. A consistência é garantida por um protocolo de consistência de réplicas. Para facilitar a implementação dos protocolos de controle de réplicas, pode-se utilizar mecanismos de comunicação de grupo como suporte para a replicação. Outro problema importante que surge com a replicação é o posicionamento das réplicas. A carga de processamento em um sistema distribuído muda continuamente e num determinado instante pode ser necessário mudar a distribuição atual das réplicas pela adição de novas réplicas, remoção de réplicas desnecessárias ou pela mudança de posicionamento das réplicas. Um sistema de gerenciamento de réplicas pode realizar esta tarefa. Este trabalho apresenta o sistema RPM – Replica Placement Manager – responsável por fornecer ao serviço de gerenciamento de réplicas uma lista ordenada de nodos potencialmente ideais, num determinado momento do processamento, para receber uma réplica de um objeto. Esta lista é criada pelo RPM, considerando um pequeno conjunto de variáveis estáticas e dinâmicas, facilmente obtidas nos nodos do sistema distribuído.
Resumo:
O gerenciamento de redes de computadores é uma tarefa complexa de ser realizada porque a redes atualmente possuem muitos equipamentos, protocolos, serviços e usuários. Como regra geral, redes de computadores são heterogêneas e a introdução de facilidades para o fornecimento de qualidade de serviço (QoS) faz com que a gerência de redes se torne ainda mais complexa, e neste cenário as soluções tradicionais de gerenciamento podem falhar. O gerenciamento de redes com QoS vem sendo investigado por diversos grupos, e soluções comerciais para o problema já podem ser encontradas. Entretanto, a gerência de QoS possui aspectos diversos que são investigados separadamente. Do ponto de vista do administrador de redes, soluções pontuais são importantes, mas a integração entre os diversos aspectos de gerência de QoS também é uma necessidade. Tal necessidade, entretanto, não tem encontrado respaldo nas pesquisas desenvolvidas ou nos produtos de gerenciamento disponibilizados no mercado. Nesta situação, o administrador da rede é obrigado a trabalhar ao mesmo tempo com soluções disjuntas que não oferecem integração. Isso acaba por complicar a gerência de QoS, que por si só já é uma atividade complexa. QoS e discutida a necessidade de integração. As soluções existentes e pesquisas desenvolvidas são classificadas para que possam ser mais bem avaliadas em uma visão mais global. A classificação realizada organiza os aspectos de QoS em tarefas de gerência de QoS que devem ser executadas por um administrador de redes que possuam facilidades de QoS. Para que a integração das tarefas de gerência de QoS seja possível, um modelo para gerência integrada de QoS em redes de computadores é proposto. O modelo, definido em camadas, utiliza elementos distribuídos na rede para executar tarefas específicas e um ambiente de gerência central fornece uma interface única de acesso ao sistema de gerência ao administrador da rede. O modelo proposto é analisado de acordo com alguns aspectos (por exemplo, em relação à sua escalabilidade, flexibilidade e exeqüibilidade). Uma implementação do mesmo é apresentada para a gerência de redes baseadas em IP que possuam mecanismos para fornecimento de QoS. A avaliação do modelo mostra, ao final, que a gerência de QoS, além de ser uma necessidade real, é possível de ser executada de forma integrada, como desejam os administradores de rede.
Resumo:
A pesquisa busca analisar as tensões humano-máquina em materiais pedagógicos utilizados pela enfermagem em terapia intensiva e, entre esses materiais pedagógicos foram analisados os manuais e protocolos assistenciais. Para desenvolvê-la, apóio-me na teorização cultural e no trabalho de autores e autoras que têm problematizado a noção de corpo e de sujeito na pós-modernidade a partir dos pressupostos teóricos do pós-estruturalismo. Entre os/as autores /as utilizados, indico os estudos de Donna Haraway e seu entendimento de ciborgue – uma idéia produtiva que possibilita explorar a ciborguização da cultura contemporânea e suas implicações para a enfermagem em terapia intensiva. Utilizo a abordagem metodológica da análise cultural tal como esta vem sendo desenvolvida pelos Estudos Culturais que se aproximam do Pós-estruturalismo, para descrever e analisar, em três lições, alguns dos diferentes tipos de ciborguização que se materializam na prática da enfermagem em terapia intensiva. Para tal intento, selecionei alguns acontecimentos que sintetizam significados importantes da terapia intensiva na contemporaneidade, a saber: o atendimento avançado de reanimação cardiorrespiratória, a produção de imagens de corpos doentes através de um complexo sistema de monitoramento e o deslocamento das fronteiras entre a vida e a morte. Com base nessa análise, discuto no final, os desdobramentos dessas tensões no discurso da humanização da assistência na área da saúde.
Resumo:
Neste trabalho, propomos uma modificação do modelo de reação-difusão (R. M. C. de Almeida et al., Physics Review B, 61, 19 (2000)) incluindo difusividade variável com o objetivo principal de predizer, ou no mínimo descrever melhor, o crescimento de oxido de Si no regime de filmes nos. Estudamos o modelo reação-difusão a coeficiente de difusão, D, fixo e D variável. Estudamos extensivamente o modelo reação-difusão com D fixo caracterizando seu comportamento geral, e resolvendo numericamente o modelo com D variável para um intervalo amplo de relações DSiO2=DSi. Ambos casos apresentam comportamento assintótico parabólico das cinéticas. Obtivemos as equações analíticas que regem o regime assintótico de tais casos. Ambos os modelos apresentam interface não abrupta. Comparações das cinéticas com o modelo linear-parabólico e com dados experimentais foram feitas, e também para as espessuras da interface. Contudo nenhum dos dois modelos de reação-difusãao, com D fixo e com D varáavel, podem explicar a região de filmes nos, que possui taxa de crescimento superior a taxa de crescimento da região assintótica. Porém, ao incluir taxa de reação variável dentro do modelo de reação-difusão com D variável, este aponta para uma solução do regime de filmes nos.