109 resultados para Falhas ósseas
Resumo:
A execução de testes é um passo essencial na adoção de novos protocolos de comunicação e sistemas distribuídos. A forma com que estes se comportam na presença de falhas, tão comuns em ambientes geograficamente distribuídos, deve ser conhecida e considerada. Testes sob condições de falha devem ser realizados e as implementações devem trabalhar dentro de sua especificação nestas condições, garantindo explicitamente o funcionamento dos seus mecanismos de detecção e recuperação de erros. Para a realização de tais testes, uma técnica poderosa é a injeção de falhas. Ferramentas de injeção de falhas permitem ao projetista ou engenheiro de testes medir a eficiência dos mecanismos de um sistema antes que o mesmo seja colocado em operação efetiva. Este trabalho apresenta o projeto, desenvolvimento e teste do injetor de falhas FIRMAMENT. Esta ferramenta executa, dentro do núcleo do sistema operacional, microprogramas, ou faultlets, sobre cada mensagem processada para a emulação de situações de falha de comunicação, utilizando uma abordagem de scripts. A ferramenta é implementada como um módulo de núcleo do sistema operacional Linux, tendo acesso total aos fluxos de entrada e saída de pacotes de forma limpa e não intrusiva, permitindo o teste de sistemas baseados nos protocolos IPv4 e IPv6. Seu desempenho é significativo, já que a ferramenta evita que os mecanismos de injeção de falhas sejam invocados nos fluxos que não sejam de interesse aos testes, bem como dispensa a cópia de dados dos pacotes de comunicação a serem inspecionados e manipulados. A aplicabilidade da ferramenta, dada pela sua facilidade de integração a um ambiente de produção, é conseqüência de sua disponibilidade como um módulo de núcleo, podendo ser carregada como um plugin em um núcleo não modificado. As instruções por FIRMAMENT suportadas lhe dão alto poder de expressão dos cenários de falhas. Estas instruções permitem a inspeção e seleção de mensagens de forma determinística ou estatística. Além disso, fornecem diversas ações a serem realizadas sobre os pacotes de comunicação e sobre as variáveis internas do injetor, fazendo-o imitar o comportamento de falhas reais, como descarte e duplicação de mensagens, atraso na sua entrega e modificação de seu conteúdo. Estas características tornam a ferramenta apropriada para a realização de experimentos sobre protocolos e sistemas distribuídos.
Resumo:
Este trabalho busca a implementação da replicação de objetos através da linguagem Java e de seu sistema de invocação remota de métodos (Remote Method Invocation - RMI). A partir deste sistema, define-se uma classe de replicação - a máquina de replicação – onde a implementação de grupos de objetos é estruturada de acordo com a arquitetura cliente/servidor, sendo o cliente o representante (a interface) de um grupo de objetos e os servidores representam os demais componentes do grupo. A classe de replicação atende a uma necessidade importante dos sistemas distribuídos - o desenvolvimento de aplicações tolerantes a falhas. Fundamentalmente, a tolerância a falhas é obtida por redundância e, no caso de mecanismos de tolerância a falhas por software, esta redundância significa basicamente replicação de dados, processos ou objetos. A tolerância a falhas para tal tipo de sistema é importante para garantir a transparência do mesmo, visto que, assim como um sistema distribuído pode auxiliar muito o usuário pelas facilidades oferecidas, o não cumprimento de suas atividades de acordo com o esperado pode, em algumas situações, causar-lhe transtornos e erros irrecuperáveis nas aplicações. Finalmente, como principal contribuição, este trabalho descreve e implementa a solução completa para a construção de uma biblioteca de classes que oferece a replicação de forma totalmente transparente para o usuário.
Resumo:
Este trabalho define e implementa um sistema de controle de consumo para redes de computadores, objetivando aumentar o tempo de operação da rede em caso de operação com recursos limitados e redução de consumo de energia em situações de fornecimento normal. Na definição do sistema, denominado NetPower, foi estabelecida uma estrutura através da qual um gerente (coordenador) monitora as atividades dos equipamentos vinculados à rede, e determina alterações nos estados de consumo respectivos, de acordo com as necessidades ou atendimento de padrões de otimização. Aos equipamentos podem ser atribuídos diferentes privilégios em uma hierarquia adaptável a diversos ambientes. Um reserva oferece opção às falhas do gerente. A implementação está baseada no protocolo SNMP (Simple Network Management Protocol) para a gerência e são considerados preponderantemente os padrões para controle de consumo dos equipamentos Advanced Power Management, APM, e Advanced Configuration and Power Interface Specification, ACPI. Além da arquitetura do gerente e dos agentes, foi definida também uma MIB (Management Information Base) para controle de consumo. No projeto do sistema, foi privilegiado o objetivo de utilização em qualquer ambiente de rede, sem preferência por equipamentos de algum fabricante específico ou por arquitetura de hardware. Tecnologias de domínio público foram utilizadas, quando possível. No futuro este sistema pode fazer parte da distribuição de sistemas operacionais, incorporando controle de consumo às redes. No texto é feita uma comparação entre os softwares existentes para controle de consumo, são apresentados os recursos de controle de consumo disponíveis nos equipamentos de computação, seguido da descrição do protocolo de gerência utilizado. Em seguida, é apresentada a proposta detalhada do sistema de controle e descrita da implementação do protótipo.
Resumo:
Geralmente, as populações, incluindo aí os setores produtivos, planejam suas atividades pelo conhecimento antecipado das variações tanto da temperatura quanto da precipitação pluvial baseados nos ciclos anuais e sazonais conhecidos. Os benefícios, confiabilidade e utilização das previsões climáticas têm sido objeto de análise e discussão na comunidade científica mundial. O desenvolvimento e aplicação dessas previsões para determinadas partes de áreas extensas, atende, de forma mais satisfatória, aos anseios dos setores produtivos e a sociedade como um todo. O objetivo principal desse trabalho foi identificar regiões dos oceanos Atlântico e Pacífico, cuja Temperatura da Superfície do Mar (TSM) possa ser utilizada como preditor potencial em modelos estatísticos de previsão climática de temperaturas máxima e mínima em regiões homogêneas do Estado do Rio Grande do Sul. Este estudo foi desenvolvido com dados de temperaturas máxima e mínima de 40 estações meteorológicas, do Instituto Nacional de Meteorologia e, da Fundação Estadual de Pesquisas Agropecuárias para o período de 1913 a 1998 e dados de TSM em pontos de grade para o período de 1950 a 1998 do National Center for Environmental Prediction. Num tratamento preliminar dos dados, as séries tiveram suas falhas preenchidas utilizando um método de preenchimento, aqui chamado, de “método das correlações”. Com as séries completas, aplicou-se métodos de agrupamento, determinando 4 regiões homogêneas de temperaturas máxima e mínima para o Estado. Foi feito um estudo climatológico dessas regiões e determinadas as relações das temperaturas médias máxima e mínima, de cada uma com TSM dos Oceanos na grade definida. As regiões determinadas representaram bem a fisiografia do Estado e as regiões preditoras apresentaram correlações significativas tanto com a temperatura máxima, quanto com a mínima. Os meses com maior número de preditores, tanto para as temperatura máxima quanto para mínima, foi agosto e o de menor, julho. Correlações diferentes para regiões homogêneas distintas, justificou a utilização da regionalização neste trabalho.
Resumo:
Este trabalho apresenta o desenvolvimento de uma metodologia para a avaliação de critérios de outorga do uso da água na bacia do rio Santa Maria. A escolha da bacia do rio Santa Maria se deve ao fato da existência de conflitos pelo uso da água, principalmente durante o verão, quando surge a demanda de água para o cultivo do arroz. A carência de dados hidrológicos, a existência de um grande número de pequenos reservatórios e a sazonalidade das demandas fazem da bacia do rio Santa Maria um caso interessante de ser estudado. É comentado o processo de evolução da outorga através das legislações, a situação atual em que se encontra a implementação deste instrumento, quais as tendências e fica estabelecida uma forma de comparação de diferentes critérios. A análise é feita de forma sistêmica (admitindo a bacia hidrográfica como unidade de planejamento) com o uso de modelos matemáticos de avaliação e gestão, particularmente modelos de simulação hidrológica, em conjunto com dados experimentais sobre o efeito de água no rendimento das culturas. A avaliação de diversos valores de outorga levando em consideração bases econômicas como custos de plantio, preços de mercado dos produtos e recorrência das falhas de atendimento associada à probabilidade de ocorrência de rendimentos líquidos não negativos revela um modelo de utilização otimizado dos recursos hídricos superficiais da bacia.
Resumo:
O presente trabalho apresenta inicialmente algumas conexões transversais nos tempos de vida da investigadora, preliminares à investigação. A partir dessas conexões, foram produzidas as questões que motivaram a elaboração da investigação sobre o desejo de aprender em um grupo de sujeitos de um programa de educação de jovens e adultos, bem como a procura e escolha de um referencial teórico que permitiu acompanhar a “atualização” desse desejo ao longo dos seus diversos tempos vividos. Assim, a investigação partiu do problema de que os movimentos de “atualização” do desejo de aprender no tempo de aprendizagem de jovens e adultos não obedecem a uma ordem cronológica, mas sim aos diferentes modos de articulação do presente, passado e futuro. No processo de construção do referencial teórico para investigar a “atualização” do desejo de aprender foi escolhido como eixo central o tempo, na concepção bergsoniana de duração, na qual se produzem a diferença e a singularidade, imbricadas no movimento de criação do sujeito. Embora a escolha tenha recaído no tempo, esse é inseparável do espaço, daí que foi elaborada uma análise da sociedade capitalista globalizada da contemporaneidade. O espaço é entendido aqui como extensão onde se produz o sujeito, o qual sofre as investidas dos mecanismos econômicos e culturais hegemônicos para tentar cooptar o seu desejo, acenando-lhe com a ilusão de uma total satisfação, através do consumo. Para tanto, foram analisados alguns mecanismos utilizados para a cooptação do sujeito, tais como a omissão ou suspensão de sua memória, como meio de conhecimento individual e da humanidade, cujos desdobramentos são a construção de uma lógica da não diferença e o desrespeito à alteridade, o que caracteriza a massificação da sociedade Junto à análise da sociedade capitalista massificada foi feita também uma análise das possibilidades de novas e múltiplas formas de subjetivação produtoras de linhas de fuga à homogeneização do sujeito, de dentro da sociedade, pois não há um fora possível. As novas possibilidades foram delineadas a partir de um referencial teórico encontrado na psicanálise, com suas contribuições sobre a produção do desejo, bem como as interlocuções possíveis com a filosofia da diferença em Deleuze. Quanto à orientação metodológica da investigação, a escolha do eixo tempo levou à orientação do método intuitivo bergsoniano através da leitura feita por Deleuze, o qual utiliza o caso-pensamento que, aqui, é a educação de jovens e adultos em processo de alfabetização, separando as questões relativas ao espaço e ao tempo e privilegiando o segundo; verifica se o problema proposto é um falso ou um verdadeiro problema, esse último propõe outras questões ao longo da investigação, não busca apenas soluções; acompanha o movimento do pensamento sem ter, a priori, um modelo dividido em categorias, mas procurando vê-lo na linha da duração e da produção de uma memória ontológica. O acompanhamento do pensamento dos sujeitos foi feito através da realização de entrevistas, nas quais falaram sobre o seu passado, o seu presente e suas perspectivas futuras, tendo como eixo das perguntas o desejo de aprender. Foi delimitado um grupo de nove sujeitos que participaram da investigação e estabelecidos os três tempos para serem entrevistados: o tempo de rememoração, no início do atual período de escolarização, para lembrar suas experiências passadas em relação ao desejo de freqüentar a escola; o tempo de produção/passagem, ao final do primeiro semestre de escolarização, para falar de suas experiências atuais; o tempo de fechamento/abertura, um ano após a segunda entrevista, para fazer um balanço de suas aprendizagens e das possíveis mudanças em sua vida a partir dessas aprendizagens. Esses três tempos permitiram delinear a cartografia do movimento de “atualização” do desejo de aprender dos sujeitos investigados. Após cada tempo de entrevistas dos sujeitos foi feita uma análise do que era comum a todas as falas dos sujeitos, não no sentido de encontrar generalidades, mas relativo à existência dos movimentos do seu pensamento, constituindo-se nos três entretempos da investigadora aprender e suas conexões com a produção da diferença, do estilo e da singularidade, bem como as articulações delineadas entre o presente da aprendizagem na escola, o passado e futuro de cada sujeito. A partir das conclusões e problemáticas construídas através da análise das entrevistas, foi possível apontar para algumas indicações de como se materializam as investidas da sociedade capitalista globalizada nos movimentos capilares sociais, no caso, nos sujeitos de um programa de educação de jovens e adultos, o que se mostrou de forma não monolítica, mas com ranhuras e falhas, o que permitiu ressaltar a máxima de que “nada está decidido” a respeito do sujeito e da subjetividade no seu processo de aprendizagem.
Resumo:
Este trabalho investiga a aplicação de métodos e técnicas de correlação de alarmes na detecção e diagnóstico de falhas em sistemas supervisionados por computador. Atualmente, alguns centros de supervisão ainda não se utilizam destas técnicas para o tratamento das informações recebidas de suas redes de supervisão, ficando para os operadores a responsabilidade de identificar estas correlações. Com o crescente volume de informações recebidas pelos centros de supervisão, devido ao aumento da heterogeneidade e do número de equipamentos supervisionados, torna a identificação manual da correlação dos alarmes lenta e pouco precisa. Objetivando melhorar a qualidade do serviços prestados pelos centros de supervisões, este trabalho propõe o uso de uma rede Bayesiana como método de correlação de alarmes e uma técnica de limitação de escopo para atingir uma melhor performance na propagação desta correlação. Através dos conceitos desenvolvidos neste trabalho, foi implementado um protótipo de correlação de alarmes para um sistema de supervisão existente no mercado, neste protótipo modela-se a rede Bayesiana em um banco de dados relacional e, como resultado desta implementação apresenta-se a interface desenvolvida para a supervisão.
Resumo:
O trabalho contempla a recuperação de serviços como instrumento para obtenção de diferencial competitivo de atendimento direto ao público para empresa de serviços de alimentação. Apresenta-se uma revisão bibliográfica dos modelos de recuperação de serviço e sua importância na estratégia das empresas. Identificam-se diferentes tipos de serviços de restaurante, com seus processos os tipos de falhas encontrados nos mesmos. Como parte do trabalho é realizado um estudo de caso em restaurante, apresentando suas características e estratégia de ação em relação à resolução de falhas no processo atendimento. O cenário da empresa, com suas características e necessidades particulares, é identificado a partir de levantamento de dados, onde são utilizadas fontes secundárias e resultados de pesquisa com os clientes da empresa.. Como resultado são estabelecidas estratégia de recuperação de serviços com ações práticas de atuação no dia-a-dia da empresa.
Resumo:
Replicação de objetos é usada para garantir uma maior disponibilidade de recursos em um sistema distribuído. Porém, com a replicação, surgem problemas como o controle da consistência das réplicas e onde estas réplicas devem estar posicionadas. A consistência é garantida por um protocolo de consistência de réplicas. Para facilitar a implementação dos protocolos de controle de réplicas, pode-se utilizar mecanismos de comunicação de grupo como suporte para a replicação. Outro problema importante que surge com a replicação é o posicionamento das réplicas. A carga de processamento em um sistema distribuído muda continuamente e num determinado instante pode ser necessário mudar a distribuição atual das réplicas pela adição de novas réplicas, remoção de réplicas desnecessárias ou pela mudança de posicionamento das réplicas. Um sistema de gerenciamento de réplicas pode realizar esta tarefa. Este trabalho apresenta o sistema RPM – Replica Placement Manager – responsável por fornecer ao serviço de gerenciamento de réplicas uma lista ordenada de nodos potencialmente ideais, num determinado momento do processamento, para receber uma réplica de um objeto. Esta lista é criada pelo RPM, considerando um pequeno conjunto de variáveis estáticas e dinâmicas, facilmente obtidas nos nodos do sistema distribuído.
Resumo:
Independentemente do modelo de programação adotado, no projeto e implementação de aplicações de alta disponibilidade, faz-se necessário usar procedimentos de tolerância a falhas. Dentre as atividades que trazem consigo interesse de pesquisa na área de Tolerância a Falhas, estão os mecanismos de recuperação em um sistema computacional. Do ponto de vista prático, estes mecanismos buscam manter próximo do mínimo o tempo total de execução de aplicações computacionais de longa duração, ao mesmo tempo em que as preparam para não sofrerem perdas significativas de desempenho, em caso de falhas. Paralelamente à evolução dos sistemas computacionais, foi possível observar também a evolução das linguagens de programação, principalmente as que utilizam o paradigma orientado a objetos. O advento da área de tolerância a falhas na orientação a objetos resultou em novos problemas na atividade de recuperação quanto aos mecanismos de salvamento de estados e retomada da execução, principalmente no que se refere às dificuldades de gerenciamento e controle sobre a alocação de objetos. Entretanto, observa-se que a complexidade de implementação dos mecanismos de recuperação, por parte dos programadores, exige deles conhecimentos mais especializados para o salvamento dos estados da aplicação e para a retomada da execução. Portanto, a simplificação do trabalho do programador, através do uso de uma biblioteca de checkpointing que implemente os mecanismos de salvamento de estados e recuperação é o ponto focal deste trabalho. Diante do contexto exposto, nesta dissertação, são definidas e implementadas as classes de uma biblioteca que provê mecanismos de checkpointing e recuperação. Esta biblioteca, denominada de Libcjp, visa aprimorar o processo de recuperação de aplicações orientadas a objetos escritas na linguagem de programação Java. Esta linguagem foi escolhida para implementação devido à presença dos recursos de persistência e serialização. Para a concepção do trabalho, são considerados ambos os cenários no paradigma orientado a objetos: objetos centralizados e distribuídos. São utilizados os recursos da API de serialização Java e a tecnologia Java RMI para objetos distribuídos. Conclui-se o trabalho com a ilustração de casos de uso através de diversos exemplos desenvolvidos a partir de seus algoritmos originais inicialmente, e incrementados posteriormente com os mecanismos de checkpointing e recuperação. Os componentes desenvolvidos foram testados quanto ao cumprimento dos seus requisitos funcionais. Adicionalmente, foi realizada uma análise preliminar sobre a influência das ações de checkpointing nas características de desempenho das aplicações.
Resumo:
O desenvolvimento tecnológico, aliado à grande competitividade do mercado em escala mundial, tem como conseqüências diretas a elevação dos padrões de consumo e o aumento da diversidade de opções de compra por parte dos consumidores. Desta forma as empresas têm se empenhado em desenvolver sistemas de gestão robustos, porém flexíveis, que lhes proporcionem produzir bens de melhor qualidade, com diferenciais em relação aos concorrentes. A confiabilidade de um produto apresenta, sob diferentes aspectos, impacto na satisfação do consumidor, resultando como fator fundamental na decisão de compra. Além disso, as empresas têm procurado desenvolver mecanismos que propiciem criar um canal de relacionamento mais amplo junto aos seus consumidores, utilizando-se dos programas de fidelidade que têm como uma das suas principais ferramentas a extensão da garantia de produtos. Para implementar um programa de extensão de garantia, a empresa deve estar produzindo com alto nível de confiabilidade e estar em acompanhamento contínuo do desempenho destes produtos no campo. Este acompanhamento pode ser feito a partir dos dados de falha dos produtos em garantia, que possibilitam estabelecer indicadores de performance e avaliar custos relacionados às não-conformidades observadas. Este trabalho propõe, a partir de um estudo de caso, realizar a modelagem para análise da confiabilidade de um produto refrigerador freezer, com o objetivo de identificar a distribuição das falhas e estimar a confiabilidade do produto para um período de 2 (dois) anos de uso, possibilitando assim à empresa estabelecer os custos adicionais com a extensão da garantia do produto que atualmente é de 1 (um) ano. O estudo foi delineado em duas alternativas de modelagem, sendo a primeira através da adequação, estimação e simulação do modelo de distribuição de falhas e a segunda por meio da análise bayesiana de confiabilidade envolvendo o uso de distribuições a priori e a posteriori. Os resultados observados demonstram que apesar das técnicas serem distintas, as modelagens convergiram para estimativas similares e qualitativamente coerentes com os pressupostos estabelecidos pela empresa pesquisada.
Resumo:
No projeto de arquiteturas computacionais, a partir da evolução do modelo cliente-servidor, surgiram os sistemas distribuídos com a finalidade de oferecer características tais como: disponibilidade, distribuição, compartilhamento de recursos e tolerância a falhas. Estas características, entretanto, não são obtidas de forma simples. As aplicações distribuídas e as aplicações centralizadas possuem requisitos funcionais distintos; aplicações distribuídas são mais difíceis quanto ao projeto e implementação. A complexidade de implementação é decorrente principalmente da dificuldade de tratamento e de gerência dos mecanismos de comunicação, exigindo equipe de programadores experientes. Assim, tem sido realizada muita pesquisa para obter mecanismos que facilitem a programação de aplicações distribuídas. Observa-se que, em aplicações distribuídas reais, mecanismos de tolerância a falhas constituem-se em uma necessidade. Neste contexto, a comunicação confiável constitui-se em um dos blocos básicos de construção. Paralelamente à evolução tanto dos sistemas distribuídos como da área de tolerância a falhas, foi possível observar também a evolução das linguagens de programação. O sucesso do paradigma de orientação a objetos deve-se, provavelmente, à habilidade em modelar o domínio da aplicação ao invés da arquitetura da máquina em questão (enfoque imperativo) ou mapear conceitos matemáticos (conforme o enfoque funcional). Pesquisadores demonstraram que a orientação a objetos apresenta-se como um modelo atraente ao desenvolvimento de aplicações distribuídas modulares e tolerantes a falhas. Diante do contexto exposto, duas constatações estimularam basicamente a definição desta dissertação: a necessidade latente de mecanismos que facilitem a programação de aplicações distribuídas tolerantes a falhas; e o fato de que a orientação a objetos tem-se mostrado um modelo promissor ao desenvolvimento deste tipo de aplicação. Desta forma, nesta dissertação definem-se classes para a comunicação do tipo unicast e multicast, nas modalidades de envio confiável e não-confiável. Além destes serviços de comunicação básicos, foram desenvolvidas classes que permitem referenciar os participantes da comunicação através de nomes. As classes estão organizadas na forma de um pacote, compondo um framework. Sua implementação foi desenvolvida usando Java. Embora não tivessem sido requisitos básicos, as opções de projeto visaram assegurar resultados aceitáveis de desempenho e possibilidade de reuso das classes. Foram implementados pequenos trechos de código utilizando e testando a funcionalidade de cada uma das classes de comunicação propostas.
Resumo:
Durante o resgate do material arqueológico dos sítios da região de Piratuba, SC, e de Aratiba, Machadinho e Maximiliano de Almeida, RS, área de influência da Usina Hidroelétrica de Machadinho, foram observadas grandes quantidades de ossos e escamas de peixes incorporando os restos alimentares encontrados nestes locais. Utilizando uma coleção osteológica de referência pudemos identificar restos de Salminus maxillosus Valenciennes, 1850, Brycon orbignyanus (Valenciennes, 1849), Pogonopoma obscurum Quevedo & Reis, 2002, Hemiancistrus fuliginosus Cardoso & Malabarba, 1999, Prochilodus lineatus (Valenciennes, 1836), Schizodon sp., Leporinus sp., Hoplias sp., Hypostomus sp. e Crenicichla sp. Com base em medições realizadas em exemplares de coleções, foram obtidas regressões a partir das dimensões do osso pré-maxilar em Crenicichla spp. e do esporão peitoral em Hemiancistrus fuliginosus, Pogonopoma obscurum e Hypostomus spp. correlacionadas com o comprimento padrão e peso dos espécimes. A partir das estimativas de comprimento padrão e peso das peças ósseas encontradas foi possível formular hipóteses sobre a tecnologia de pesca utilizada pelos habitantes destes sítios.
Resumo:
Este trabalho trata da utilização de protocolos de comunicação de grupo para a disseminação de escritas em arquivos replicados. A replicação de arquivos tem como objetivo aumentar a disponibilidade dos dados mesmo mediante a ocorrência de alguma falha. Existem duas abordagens principais para a replicação de arquivos: a da cópia primária e das cópias ativas. Em ambas as abordagens é necessário que seja mantida a integridade dos dados replicados, de forma que todos cópias dos arquivos replicados estejam no mesmo estado. Essa integridade pode ser mantida pela escolha correta de uma estratégia de disseminação de escritas. Como os servidores que mantém cópias do mesmo arquivo formam um grupo de replicação, a disseminação de escritas pode ser feita através de comunicação de grupos. Neste trabalho são apresentados os sistemas de comunicação de grupo xAMp, da Universidade de Lisboa; Totem, Universidade da Califórnia; Transis da Universidade de Hebréia de Jerusalém; Horus, da Universidade de Cornell e Newtop da Universidade de Newcastle. Todos os sistemas descritos possuem características de comunicação de grupo e membership que permitem a sua utilização na disseminação de escritas para arquivos replicados. Este trabalho descreve, também, o protótipo PDERM (Protótipo para a Disseminação de Escritas em arquivos Replicados, através de Multicast), implementado para analisar o comportamento de um sistema de comunicação de grupo, o xAMp, na disseminação de escritas em arquivos replicados pela estratégia da cópia primária. Foi analisado o aspecto da manutenção da integridade das réplicas mesmo na ocorrência de falha do servidor primário.