195 resultados para Gerenciamento de fornecedores
Resumo:
Este trabalho apresenta e discute uma estratégia e discute uma estratégia inédita para o problema de exploração e mapeamento de ambientes desconhecidos usandoo robô NOMAD 200. Esta estratégia tem como base a solução numéricqa de problemas de valores de contorno (PVC) e corresponde ao núcleo da arquitetura de controle do robô. Esta arquitetura é similar à arquitetura blackboard, comumente conhecida no campo da Inteligência Artificial, e é responsável pelo controle e gerenciamento das tarefas realizadas pelo robô através de um programa cleinte. Estas tarefas podem ser a exploração e o mapeamento de um ambiente desconhecido, o planejamento de caminhos baseado em um mapa previamente conhecido ou localização de um objeto no ambiente. Uma características marcante e importante é que embora estas tarefas pareçam diferentes, elas têm em comum o mesmo princípio: solução de problemas de valores de contorno. Para dar sustentabilidade a nossa proposta, a validamos através de inúmeros experimentos, realizados e simulação e diretamente no robô NOMAD 200, em diversos tipos de ambientes internos. Os ambientes testados variam desde labirintos formados por paredes ortogonais entre si até ambientes esparsos. Juntamente com isso, introduzimos ao longo do desenvolvimento desta tese uma série de melhorias que lidam com aspectos relacionados ao tempo de processamento do campo potencial oriundo do PVC e os ruídos inseridos na leitura dos sensores. Além disso, apresentamos um conjunto de idéias para trabalhos futuros.
Resumo:
O tema central deste trabalho analisa o crédito e o risco bancário. Seu objetivo básico será abordar os aspectos do risco bancário, mostrando os principais instrumentos utilizados para mensuração e gerenciamento do risco de crédito. A abordagem do tema inclui também uma análise econômico-financeira das empresas tomadoras de crédito bancário, bem como os levantamentos estatísticos relativos ao porte e risco dessas empresas. Os dados estatísticos indicam haver uma concentração de perdas de crédito nas micros e pequenas empresas, o que não chega a comprometer os resultados globais, em função da diversificação e pulverização dos valores emprestados, diluindo os riscos e garantindo a rentabilidade esperada. A conclusão do trabalho mostra que o risco é inerente à concessão de crédito e pode ser minimizado através de um bom gerenciamento do mesmo.
Resumo:
A característica de autogestão existente em uma cooperativa faz com que o processo administrativo e gerencial seja diferenciado das demais organizações. Mas, independentemente dessas características, informações são necessárias em qualquer um dos níveis decisórios desse tipo de organização. Sendo assim, o presente trabalho tem como objetivo pesquisar a influência do sistema de informações existente na Cooperativa Regional Tritícola Santiaguense Ltda, em seu processo decisório, e, também, descrever a estrutura de poder e o sistema de informações existente, verificando como este se articula com a estrutura do poder, visando à tomada de decisão. Para isso, foi feita uma análise do ambiente da organização em estudo, uma revisão de literatura, englobando os aspectos referentes ao cooperativismo, à gestão em cooperativas, aos sistemas de informações, à tecnologia da informação e à tomada de decisão. A pesquisa aplicada para a obtenção dos dados analisados foi de natureza exploratória e descritiva, configurando-se como um estudo de caso. A coleta dos dados para a obtenção das evidências que definiram o resultado da pesquisa foi feita através de entrevistas, documentação, observações diretas e observação participante. Os resultados obtidos demonstram que, apesar de a cooperativa possuir uma estrutura adequada ao tipo de atividade, precisa, ainda, melhorar alguns aspectos referentes à obtenção das informações bem como ao seu uso. Os gestores dessa organização possuem deficiências para compreender e analisar as informações disponíveis no Sistema de Informações, o que dificulta a análise das mesmas. Fica, neste trabalho, a constatação de que a cooperativa deve possuir recursos gerenciais baseados em informações, permitindo que sua administração seja feita de forma a mantê-la competitiva no mercado onde atua. Uma cooperativa tem, efetivamente, características diferenciadas, mas não pode deixar de utilizar, de forma eficiente, informações que irão dar subsídios para a tomada de decisão e conseqüente gerenciamento e manutenção do negócio. Para isso, precisa prover-se de recursos, tanto materiais, como humanos, baseados nos modelos científicos existentes e confirmados pelos autores que fundamentam esta pesquisa.
Resumo:
Com a abertura do mercado brasileiro e aumento da pressão competitiva, as organizações têm buscado incessantemente a melhoria de desempenho de seus processos produtivos. Dentro deste contexto, surge a Manufatura de Classe Mundial, que se caracteriza pela alta disponibilidade e flexibilidade dos meios de produção. Para o alcance desse estágio na manufatura, a manutenção industrial é um elemento chave, que, adaptada ao ambiente de competição globalizado, caracteriza o que se chama de Manutenção de Classe Mundial (MCM), representando um importante diferencial competitivo. Nas Indústrias de Processamento Contínuo do segmento petroquímico, em particular, a manutenção industrial tem papel ainda mais decisivo, ao assegurar o funcionamento estável e seguro dos equipamentos e instalações a custos otimizados, sem comprometimento da saúde e segurança dos trabalhadores e com respeito ao meio ambiente. Apresenta-se nesta dissertação uma proposta de fundamentos habilitadores para a implantação de um sistema de gerenciamento de manutenção, totalmente integrado com o processo produtivo, desenvolvido e aplicado numa refmaria de petróleo brasileira. Os fundamentos selecionados com base nos princípios da MCM,juntamente com outros temas relevantes como planejamento e gestão estratégica, estrutura e aspectos organizacionais, mapeamento de processo, terceirização, suprimento de materiais e sobressalentes e política de Segurança, Meio Ambiente e Saúde Ocupacional, apresentam-se como decisivos para o sucesso do sistema de manutenção implementado.
Resumo:
Esta dissertação aborda apenas alguns elementos relacionados à gestão do conhecimento e, ao mesmo tempo, procura analisar o processo de criação do conhecimento em uma empresa de moldes. Gerir o conhecimento dentro de uma empresa pode ser uma grande vantagem competitiva diante do mercado atual. O desafio está em conciliar essas habilidades com a resolução dos problemas operacionais do cotidiano. O conhecimento pode ser associado a uma preparação para ação, o que leva as organizações a intensificarem o seu interesse por tal assunto. Uma das abordagens deste estudo de caso envolve a formação do conhecimento tácito dos funcionários e sua transformação em explícito. Observa-se que o conhecimento coletivo é importante na estratégia da empresa. Além do que, a gestão do conhecimento refere-se a todo esforço sistemático realizado pela empresa para criar, utilizar, reter e medir o seu conhecimento. Socializa-se o conhecimento, através do compartilhamento das idéias e experiências adquiridas, o que possibilita através do exemplo das pessoas, que esta fase gere observação sobre as ações tomadas. Evidencia-se que, na empresa em questão podem existir apenas elementos da gestão do conhecimento e não um efetivo gerenciamento do conhecimento. Há uma análise feita de alguns dos principais aspectos relacionados à gestão do conhecimento, ou seja: pessoas, processos, tecnologias de informação, fatores facilitadores e orientadores do aprendizado. As conclusões desta dissertação apontam que, em uma empresa do porte da estudada, podem existir dificuldades no gerenciamento do conhecimento em muitas ocasiões. A evidência de que este conhecimento pode ser usado estrategicamente na competitividade do mercado, bem como na formação das competências essenciais da empresa perante os demais concorrentes, não é estabelecida. Em suma, a análise dos elementos da gestão do conhecimento nessa empresa tem levado à melhoria do seu desempenho. Porém, talvez fosse aconselhável a alocação de um profissional para dar continuidade e servir de orientador dos grupos de trabalho relacionados a esses subsídios presentes na empresa, a fim de que possam melhorar sua estratégia.
Resumo:
O projeto de edificações é um dos processos mais importantes em empreendimentos de construção pelo seu impacto em termos de custo e qualidade do produto final. Entretanto, observam-se muitos problemas relacionados ao gerenciamento inadequado do mesmo, tais como ineficiente comunicação entre os intervenientes, indefinição de responsabilidades e ocorrência de erros em projetos. Muitos destes problemas dizem respeito à sub utilização dos sistemas CAD e tecnologias da informação. O presente trabalho tem como objetivo propor diretrizes e padrões para gestão do fluxo de informações e para produção de desenhos no processo de projeto utilizando recursos computacionais. Busca-se, assim, o aumento da eficiência do uso dos sistemas CAD e tecnologias da informação e também uma maior eficiência nas trocas de informações entre os intervenientes. Para tal, foram realizados dois estudos de caso em empresas construtoras incorporadoras de pequeno porte situadas na Região Metropolitana de Porto Alegre - RS. A partir dos estudos de caso, foram desenvolvidos os seguintes padrões: estrutura de diretórios, back up de arquivos de desenho, nomenclatura de arquivos de desenho, protocolos de envio e recebimento de arquivos ou plantas, controle de versões de plantas ou memoriais descritivos enviados à obra, nomenclatura de layers, layers para integração, diretrizes para produção de desenhos no computador e diretrizes para apresentação de plantas. Além disso, foram identificadas e discutidas novas tendências em termos de aplicação das tecnologias da informação no processo de projeto. No entanto, salienta-se que este trabalho não tem a intenção de quebrar o paradigma atual do processo de projeto, mas sim, contribuir para preparar as empresas construtoras incorporadoras e escritórios de projeto para as tendências futuras de informatização.
Resumo:
A colaboração visual, recurso que permite a troca de informações de forma remota, é construída em cima de uma combinação de diversas ferramentas, na qual estão incluídos: videoconferência, “streaming de vídeo”, compartilhamento e transferência de informações e imagens (colaboração em cima de dados) entre outros. Estas soluções, vêm utilizando cada vez mais, o protocolo IP e a Internet para o transporte dos sinais. Com este objetivo, o ITU-T lançou a recomendação H.323, que definiu um padrão confiável, que permite a troca de sinais multimídia em redes de pacotes sem qualidade de serviço. Entretanto, com o passar dos anos percebeu-se que aplicações que manipulam voz e vídeo, precisam que as redes de pacotes tenham capacidade de prover características semelhantes às oferecidas por redes de comutação por circuito, para o transporte dos sinais multimídia. Neste sentido, redes IP podem utilizar mecanismos de qualidade de serviço como o DiffServ, para prover tratamento adequado dos sinais de áudio e vídeo e assim, aumentar a qualidade percebida pelos usuários. As aplicações de colaboração visual são notáveis candidatas a utilização de mecanismos de QoS da rede. Neste caso é desejável que estas aplicações estejam aptas a especificar o nível de qualidade de serviço desejado e requisitem este nível de serviço para a rede. Neste contexto, o trabalho apresenta um modelo para o desenvolvimento de um terminal H.323 capaz de requisitar qualidade de serviço para a rede IP, visando aumentar a qualidade percebida pelo usuário em relação aos sinais de mídia. Neste terminal foi incluída uma entidade chamada de EPQoSE, responsável pela sinalização de QoS em benefício do terminal. Além disso, o modelo proposto neste texto apresenta um sistema de gerenciamento baseado em políticas, responsável por controlar as requisições de QoS dos terminais H.323, dentro de um domínio. Como o terminal precisa se comunicar com estas entidades, apresentamos no trabalho, a maneira como ele faz isso e definimos um conjunto de funções que devem ser implementadas pelo QoSM no terminal.
Resumo:
A competitividade incremental que vem sendo requerida das empresas tem exigido um processo de gestão ágil e inteligente, no qual uma eficiente gestão da informação é crucial à sobrevivência das organizações. A adoção e implementação de sistemas informacionais, não poucas vezes, tem levado ao desperdício e à frustração pela inobservância de determinados empecilhos que podem não ser detectados quando da tomada de decisão em implantar um sistema. O presente estudo tem por objetivo identificar fatores sociais, técnicos, e financeiros, inibidores à adoção de Tecnologia da Informação avançadas, por parte das pequenas e médias empresas das Micro-Regiões da AMPLASC1 e AMMOC2. O método foi um estudo exploratório de corte transversal, onde, através de survey realizada junto a 62 empresas busca-se levantar as características da população pesquisada. O instrumento de coleta de dados composto de 83 questões foi dividido em quatro partes: a) identificação do respondente e da organização; b) identificando a TI; c) identificação dos fatores técnicos inibidores; e d) identificação dos fatores sócio-culturais inibidores. A análise dos dados foi realizada primeiramente considerando a amostra total, depois quando as organizações eram estratificadas em Pequena e Média empresa, e, finalmente, quando estas organizações eram estratificadas pelo ramo de atividade (Comércio, Industria, e Serviço), demonstrando como os fatores mencionados na literatura mundial são entendidos como com potencialidade inibidoras pelas organizações da região em estudo. Pelos resultados da presente pesquisa é possível concluir que as empresas possuem uma infraestrutura em TI satisfatória aos usuários, que consideram, em sua grande maioria, suficiente os recursos de hardware e software disponibilizados pelas organizações para realização das suas atividades. Apesar disso, é possível verificar que a situação não é totalmente confortável. Isto é, ainda que os respondentes tenham considerado que a infraestrutura em TI seja suficiente, existem alguns fatores que dificultam uma utilização mais adequada das TIs. Conclui demonstrando que alguns fatores precisam ser trabalhados para que a gestão da informação possa trazer a eficiência, eficácia e efetividade as organizações da região do estudo.
Resumo:
Capões naturais de vegetação florestal inseridas em meio a uma matriz dominada por campos freqüentemente destacam-se na paisagem do planalto sul-brasileiro. São importantes núcleos de manutenção dos processos florestais, bem como fornecedores de alimento e refúgio à fauna silvestre. Baseado em recentes estudos paleopalinológicos, nos últimos séculos as florestas do sul do Brasil estariam em um franco processo de avanço sobre a vegetação campestre. Hipotetíza-se que os capões desempenham um papel fundamental nesta expansão, mesmo que o processo possa sofrer inúmeras restrições de distúrbios como o pastejo e fogo, tradicionalmente utilizados como manejo por pecuaristas da região. O objetivo principal deste estudo foi a identificação de padrões vegetacionais na expansão das manchas florestais e relacioná-los às condições ambientais de solo e topografia. O estudo foi realizado no Centro de Pesquisa e Conservação da Natureza Pró-Mata, localizado na porção leste do planalto, no município de São Francisco de Paula, RS, a cerca de 900 m de altitude. A área, excluída da interferência antrópica há aproximadamente 10 anos, caracteriza-se pelo predomínio de Floresta com Araucária entremeada por campos nativos. Foram selecionados cinco capões de tamanho e forma semelhantes, em cada qual foram demarcadas quatro transecções orientadas perpendicularmente à borda entre floresta e campo. As transecções subdivididas em quadros contíguos foram avaliadas quanto à cobertura da vegetação dos componentes superior e inferior, além da descrição de fertilidade química da porção superficial do solo. Os resultados demonstram padrões consistentes e indicam uma expansão radial dos capões sem limitações edáficas. Sem a influência dos distúrbios, os capões estariam recuperando a capacidade de expansão e apresentam um rápido processo de reestruturação interna.
Resumo:
A segurança no ambiente de redes de computadores é um elemento essencial para a proteção dos recursos da rede, dos sistemas e das informações. Os mecanismos de segurança normalmente empregados são criptografia de dados, firewalls, mecanismos de controle de acesso e sistemas de detecção de intrusão. Os sistemas de detecção de intrusão têm sido alvo de várias pesquisas, pois é um mecanismo muito importante para monitoração e detecção de eventos suspeitos em um ambiente de redes de computadores. As pesquisas nessa área visam aprimorar os mecanismos de detecção de forma a aumentar a sua eficiência. Este trabalho está focado na área de detecção de anomalias baseada na utilização de métodos estatísticos para identificar desvios de comportamento e controlar o acesso aos recursos da rede. O principal objetivo é criar um mecanismo de controle de usuários da rede, de forma a reconhecer a legitimidade do usuário através de suas ações. O sistema proposto utilizou média e desvio padrão para detecção de desvios no comportamento dos usuários. Os resultados obtidos através da monitoração do comportamento dos usuários e aplicação das medidas estatísticas, permitiram verificar a sua validade para o reconhecimento dos desvios de comportamento dos usuários. Portanto, confirmou-se a hipótese de que estas medidas podem ser utilizadas para determinar a legitimidade de um usuário, bem como detectar anomalias de comportamento. As análises dos resultados de média e desvio padrão permitiram concluir que, além de observar os seus valores estanques, é necessário observar o seu comportamento, ou seja, verificar se os valores de média e desvio crescem ou decrescem. Além da média e do desvio padrão, identificou-se também a necessidade de utilização de outra medida para refletir o quanto não se sabe sobre o comportamento de um usuário. Esta medida é necessária, pois a média e o desvio padrão são calculados com base apenas nas informações conhecidas, ou seja, informações registradas no perfil do usuário. Quando o usuário faz acessos a hosts e serviços desconhecidos, ou seja, não registrados, eles não são representados através destas medidas. Assim sendo, este trabalho propõe a utilização de uma medida denominada de grau de desconhecimento, utilizada para medir quantos acessos diferentes do seu perfil o usuário está realizando. O sistema de detecção de anomalias necessita combinar as medidas acima descritas e decidir se deve tomar uma ação no sistema. Pra este fim, propõe-se a utilização de sistemas de regras de produção e lógica fuzzy, que permitem a análise das medidas resultantes e execução do processo de decisão que irá desencadear uma ação no sistema. O trabalho também discute a integração do sistema de detecção de intrusão proposto à aplicação de gerenciamento SNMP e ao gerenciamento baseado em políticas.
Resumo:
As organizações desenvolvedoras de software, na sua maioria, têm grande dificuldade de identificar e adotar um processo adequado de gestão de mudanças de requisitos. Durante todo o ciclo de vida de desenvolvimento de um software existem inúmeras solicitações de mudanças de escopo e de requisitos (técnicos ou não). Isso provoca muitos transtornos aos projetos e aos envolvidos. Por isso, há uma necessidade determinante de que essas organizações utilizem um processo adequado de acompanhamento e de controle de requisitos. Com base nisso, este trabalho procura apresentar uma metodologia de gerenciamento de mudanças dos requisitos, desde a base conceitual, que envolve os requisitos ( tipos, problemas, técnicas de elicitação e visão geral sobre modelo de gerência de requisitos), até a aplicação da metodologia proposta em um estudo de caso. O desenvolvimento deste trabalho teve como objetivo principal desenvolver a estrutura de uma metodologia que fosse de fácil aplicação nas organizações, dando uma noção de como devem ser gerenciadas as mudanças de requisitos, sua documentação, os modelos de documentos a serem utilizados e um exemplo prático de aplicação da metodologia.
Resumo:
Um conceito recente, relacionado à tecnologia educacional, baseia-se na idéia de objetos de aprendizagem (OAs), entendidos como pequenos componentes que podem ser usados, reusados ou referenciados durante a aprendizagem suportada pela tecnologia. Paralelo a isto, várias organizações estão envolvidas num trabalho de desenvolvimento de padrões de metadados para estes objetos, a fim de facilitar a catalogação e recuperação dos mesmos. Desta forma, os OAs podem ser localizados mais facilmente e utilizados em diferentes contextos e plataformas e por diferentes pessoas. O que se propõe para atingir esta facilidade de uso dos OAs é que os objetos sejam armazenados em bases de dados que são também conhecidas como repositórios, que fornecem ao usuário vários benefícios em termos de recuperação de informações. Neste contexto, este trabalho apresenta o GROA - Gerenciador de Repositórios de Objetos de Aprendizagem, que disponibiliza recursos de criação de repositórios capazes de armazenamento, gerenciamento, indexação e estruturação de objetos de aprendizagem, e capazes de operar como serviços deWeb, na internet. Este sistema foi implementado no Zope, que utiliza um banco de dados orientado a objetos, integrado a um servidor web. O texto analisa o conceito de OA e o contextualiza em relação a questões como a educação a distância, ambientes de apoio ao ensino e reusabilidade de conteúdos. Também, detalha os padrões de metadados que permitem a inserção dos OAs como componentes da Web Semântica. Em particular, apresenta-se o mecanismo de mapas de tópicos utilizado para estruturar os repositórios de OAs gerenciados pelo GROA. Finalmente, o texto discorre sobre os detalhes da implementação do GROA.
Resumo:
A presente tese visa contribuir na construção de ambientes de desenvolvimento de software através da proposição de uma arquitetura reflexiva para ambiente de suporte a processo, nomeada WRAPPER (Webbased Reflective Architecture for Process suPport EnviRonment). O objetivo desta arquitetura é prover uma infra-estrutura para um ambiente de suporte a processo de software, integrando tecnologias da World Wide Web, objetos distribuídos e reflexão computacional. A motivação principal para esta arquitetura vem da necessidade de se obter maior flexibilidade na gerência de processo de software. Esta flexibilidade é obtida através do uso de objetos reflexivos que permitem a um gerente de processo obter informações e também alterar o processo de software de forma dinâmica. Para se obter um ambiente integrado, a arquitetura provê facilidades para a agregação de ferramentas CASE de plataformas e fabricantes diversos, mesmo disponibilizadas em locais remotos. A integração de ferramentas heterogêneas e distribuídas é obtida através do uso de tecnologias Web e de objetos distribuídos. Reflexão computacional é usada no ambiente tanto para extrair dados da execução do processo, quanto para permitir a adaptação do mesmo. Isto é feito através da introdução e controle de meta-objetos, no metanível da arquitetura, que podem monitorar e mesmo alterar os objetos do nível base. Como resultado, a arquitetura provê as seguintes características: flexibilidade na gerência de processo, permitindo o controle e adaptação do processo; distribuição do ambiente na Web, permitindo a distribuição de tarefas do processo de software e a integração de ferramentas em locais remotos; e heterogeneidade para agregar componentes ao ambiente, permitindo o uso de ferramentas de plataformas e fornecedores diversos. Neste contexto, o presente trabalho apresenta a estrutura da arquitetura reflexiva, bem como os mecanismos usados (e suas interações) para a modelagem e execução de processo dentro do ambiente de suporte ao processo de software.
Resumo:
Este trabalho aborda o estudo de gerenciamento costeiro feito na área do Manguezal do Itacorubi, na Ilha de Santa Catarina, Estado de Santa Catarina, sul do Brasil. São apresentados dois enfoques, o primeiro discute o comportamento do ecossistema ao longo do século XX diante de diferentes fatores de estresse, concluindo que o manguezal, em 1998, havia perdido 13,32% de área em relação a 1938, porém, nesse mesmo período, progradou aproximadamente 80 m sobre a plataforma continental adjacente, o que indica que o manguezal, apesar de sitiado por uma vizinhança densamente povoada, tem capacidade regenerativa e de avançar em direção do oceano. O segundo enfoque aborda os aspectos geológicos, relacionando os depósitos sedimentares encontrados nesse embaiamento costeiro e as variações holocênicas do nível do mar, constatando que o mar já cobriu essa área em tempos recentes, deixando como testemunho espessos pacotes sedimentares que se apóiam diretamente sobre o embasamento cristalino da região. Dados de testemunhos de sondagem auxiliaram no mapeamento de subsuperfície, indicando a ocorrência de um vale inciso no embasamento, o qual teria servido de acesso preferencial durante o evento transgressivo, guardando os sedimentos de maior granulometria, associados a uma região de maior dinâmica, enquanto nas áreas adjacentes, mais rasas, as granulometrias tendem para as frações mais finas. Sobre esse pacote essencialmente clástico estabeleceu-se a sedimentação carbonosa do manguezal. As variações sedimentares laterais são muito notáveis mesmo naqueles furos relativamente próximos (menos de 20 m), evidenciando a dificuldade que seria a construção de um mapa defácies de uma área de pântano parálico. O bosque de mangue existe nessa área há pelo menos 4,5 Ka, afirmação apoiada sobre os resultados obtidos com a datação de 14C sobre amostra de sedimentos carbonosos.
Resumo:
Alta disponibilidade é uma das propriedades mais desejáveis em sistemas computacionais, principalmente em aplicações comerciais que, tipicamente, envolvem acesso a banco de dados e usam transações. Essas aplicações compreendem sistemas bancários e de comércio eletrônico, onde a indisponibilidade de um serviço pode representar substanciais perdas financeiras. Alta disponibilidade pode ser alcançada através de replicação. Se uma das réplicas não está operacional, outra possibilita que determinado serviço seja oferecido. No entanto, réplicas requerem protocolos que assegurem consistência de estado. Comunicação de grupo é uma abstração que tem sido aplicada com eficiência a sistemas distribuídos para implementar protocolos de replicação. Sua aplicação a sistemas práticos com transações e com banco de dados não é comum. Tipicamente, sistemas transacionais usam soluções ad hoc e sincronizam réplicas com protocolos centralizados, que são bloqueantes e, por isso, não asseguram alta disponibilidade. A tecnologia baseada em componentes Enterprise JavaBeans (EJB) é um exemplo de sistema prático que integra distribuição, transações e bancos de dados. Em uma aplicação EJB, o desenvolvedor codifica o serviço funcional que é dependente da aplicação, e os serviços não–funcionais são inseridos automaticamente. A especificação EJB descreve serviços não–funcionais de segurança, de transações e de persistência para bancos de dados, mas não descreve serviços que garantam alta disponibilidade. Neste trabalho, alta disponibilidade é oferecida como uma nova propriedade através da adição de serviços não–funcionais na tecnologia EJB usando abstrações de comunicação de grupo. Os serviços para alta disponibilidade são oferecidos através da arquitetura HA (highly-available architecture) que possui múltiplas camadas. Esses serviços incluem replicação, chaveamento de servidor, gerenciamento de membros do grupo e detecção de membros falhos do grupo. A arquitetura HA baseia-se nos serviços já descritos pela especificação EJB e preserva os serviços EJB existentes. O protocolo de replicação corresponde a uma subcamada, invisível para o usuário final. O serviço EJB é executado por membros em um grupo de réplicas, permitindo a existência de múltiplos bancos de dados idênticos. Conflitos de acesso aos múltiplos bancos de dados são tratados estabelecendo–se uma ordem total para aplicação das atualizações das transações. Esse grupo é modelado como um único componente e gerenciado por um sistema de comunicação de grupo. A combinação de conceitos de bancos de dados com comunicação de grupo demonstra uma interessante solução para aplicações com requisitos de alta disponibilidade, como as aplicações EJB. Os serviços adicionais da arquitetura HA foram implementados em protótipo. A validação através de um protótipo possibilita que experimentos sejam realizados dentro de um ambiente controlado, usando diferentes cargas de trabalho sintéticas. O protótipo combina dois sistemas de código aberto. Essa característica permitiu acesso à implementação e não somente à interface dos componentes dos sistemas em questão. Um dos sistemas implementa a especificação EJB e outro implementa o sistema de comunicação de grupos. Os resultados dos testes realizados com o protótipo mostraram a eficiência da solução proposta. A degradação de desempenho pelo uso de réplicas e da comunicação de grupo é mantida em valores adequados.