37 resultados para Memória operacional

em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul


Relevância:

30.00% 30.00%

Publicador:

Resumo:

A simulação paralela de eventos é uma área da computação que congrega grande volume de pesquisas, pela importância em facilitar o estudo de novas soluções nas mais diferentes áreas da ciência e tecnologia, sem a necessidade da construção de onerosos protótipos. Diversos protocolos de simulação paralela podem ser encontrados, divididos em dois grandes grupos de acordo com o algoritmo empregado para a execução em ordem dos eventos: os conservadores e os otimistas; contudo, ambos os grupos utilizam trocas de mensagens para a sincronização e comunicação. Neste trabalho, foi desenvolvido um novo protocolo de simulação paralela, fazendo uso de memória compartilhada, o qual foi implementado e testado sobre um ambiente de estações de trabalho, realizando, assim, simulação paralela com uso de memória compartilhada distribuída. O protocolo foi desenvolvido tendo como base de funcionamento os protocolos conservadores; utilizou diversas características dos mesmos, mas introduziu várias mudanças em seu funcionamento. Sua execução assemelha-se às dos protocolos de execução síncrona, utilizando conceitos como o lookahead e janelas de tempo para execução de eventos. A principal mudança que o novo protocolo sofreu foi proporcionada pelo acesso remoto à memória de um LP por outro, produzindo diversas outras nas funções relativas à sincronização dos processos, como o avanço local da simulação e o agendamento de novos eventos oriundos de outro LP. Um ganho adicional obtido foi a fácil resolução do deadlock, um dos grandes problemas dos protocolos conservadores de simulação paralela. A construção de uma interface de comunicação eficiente com uso de memória compartilhada é o principal enfoque do protocolo, sendo, ao final da execução de uma simulação, disponibilizado o tempo de simulação e o tempo de processamento ocioso (quantia utilizada em comunicação e sincronização). Além de uma implementação facilitada, propiciada pelo uso de memória compartilhada ao invés de trocas de mensagens, o protocolo oferece a possibilidade de melhor ocupar o tempo ocioso dos processadores, originado por esperas cada vez que um LP chega a uma barreira de sincronização. Em nenhum momento as modificações efetuadas infringiram o princípio operacional dos protocolos conservadores, que é não possibilitar a ocorrência de erros de causalidade local. O novo protocolo de simulação foi implementado e testado sobre um ambiente multicomputador de memória distribuída, e seus resultados foram comparados com dois outros simuladores, os quais adotaram as mesmas estratégias, com idênticas ferramentas e testados em um mesmo ambiente de execução. Um simulador implementado não utilizou paralelismo, tendo seus resultados sido utilizados como base para medir o speedup e a eficiência do novo protocolo. O outro simulador implementado utilizou um protocolo conservador tradicional, descrito na literatura, realizando as funções de comunicação e sincronização através de trocas de mensagens; serviu para uma comparação direta do desempenho do novo protocolo proposto, cujos resultados foram comparados e analisados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho discute a aplicação de modelos de Pesquisa Operacional como base para o gerenciamento de operações e análise de tecnologias em empresa de transporte de carga. Inicialmente, busca-se contextualizar o escopo deste trabalho dentro do ambiente competitivo atual a fim de que sejam percebidas as conexões entre os sistemas de operações vigentes e os modelos apresentados. Também é feita uma discussão preliminar do conceito de logística, visto que este enseja uma série de acepções para o termo. Em seguida é apresentada uma revisão de algumas ferramentas de modelagem que usualmente são aplicadas a problemas de suprimento, distribuição e transbordo de produtos. Com base nesta revisão é proposta uma abordagem hierarquizada para o tratamento de problemas de logística. Um estudo de caso realizado em uma empresa de transporte de carga busca então aplicar algumas ferramentas de Pesquisa Operacional nos diversos níveis de gerenciamento de operações. Por fim, o trabalho verifica as potencialidades do uso de uma abordagem hierarquizada e a importância da adoção de modelos em empresas de transporte de carga como forma de alavancagem da sua competividade frente as novas exigências do mercado.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação, após a apresentação de uma revisão bibliográfica sobre aprendizado organizacional e gestão do conhecimento, aborda a questão do mapeamento, identificação e disseminação do conhecimento numa área operacional de uma empresa prestadora de serviços de telecomunicações. Baseado nos princípios da gestão do conhecimento, é descrito como foi realizado um levantamento dos postos de trabalho, seguido do mapeamento do conhecimento existente, identificação das necessidades e disseminação do conhecimento entre os indivíduos integrantes da área operacional. A disseminação do conhecimento ocorreu dentro dos respectivos postos de trabalho, tendo como objetivos aumentar a capacitação de todos os empregados e reduzir o risco de perda do conhecimento por "tum-over". A maior capacitação dos funcionários permite a melhoria da qualidade do serviço prestado e a redução dos tempos de recuperação dos serviços. A partir dos estudos realizados, criou-se um modelo para a implantação da gestão do conhecimento, o qual está organizado em três etapas principais: identificação, mapeamento e disseminação. O modelo proposto possibilita aplicar os conceitos de gestão do conhecimento de uma forma prática, utilizando os recursos disponíveis na própria empresa. O uso do modelo proposto pode auxiliar a manter as equipes capacitadas para o pleno desempenho de suas atividades.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A memória pode ser definida como o armazenamento e a evocação de uma informação aprendida. Sendo um processo dinâmico, requer a ativação de diversos sistemas para que a informação adquirida seja consolidada. O ATP é um importante neurotransmissor que, após a sua liberação e conseqüente ativação de seus receptores específicos, precisa ser inativado. Esta remoção do ATP da fenda sináptica ocorre através de sua hidrólise promovida pelas ectonucleotidases. Como um dos produtos da hidrólise do ATP, a adenosina é considerada um potente neuromodulador e exerce suas ações através de receptores específicos com ações excitatórias (A2A e A2B ) ou inibitórias (A1 e A3). Vários trabalhos já demonstraram a participação do sistema purinérgico nos processos relacionados a memória da tarefa da esquiva inibitória. Estudos realizados em nosso laboratório mostraram a participação das ectonucleotidases sinaptossomais de hipocampo, córtex entorrinal e córtex parietal na consolidação da memória para esquiva inibitória. No entanto, existem poucos estudos a respeito do sistema purinérgico nos mecanismos de consolidação da memória em outras regiões cerebrais, tais como o córtex cingulado anterior (CA) e posterior (CP) e a área pré-central medial (FR2). Portanto, na primeira parte deste estudo, avaliamos as atividades ectonucleotidásicas em sinaptossomas de CA, CP e FR2 de ratos submetidos à tarefa de esquiva inibitória. Nossos resultados demonstraram um aumento na hidrólise de ATP em sinaptossomas de FR2 e CA; e na hidrólise de ADP em sinaptossomas de FR2 e CP. Este aumento na hidrólise de ATP e ADP ocorreu devido ao choque administrado na tarefa, já que o grupo de animais que não recebeu choque não apresentou alterações na hidrólise de ATP e ADP. Este efeito observado provavelmente não está associado à consolidação da memória, mas a mudanças neuroquímicas e neurohumorais induzidas pelo estresse após o choque. Além disso, foi observado um aumento relacionado ao aprendizado na atividade ATPásica e ADPásica em CP e CA, respectivamente. Estes resultados sugerem fortemente que estas enzimas participam da consolidação da memória em CP e CA. O aumento na hidrólise de ATP e ADP sugere um possível aumento na concentração de adenosina nestas regiões. Portanto, na segunda parte deste estudo, verificamos a influência de agonistas e antagonistas de receptores de adenosina nas memórias de curta (STM) e de longa (LTM) duração na tarefa de esquiva inibitória. Então, neste estudo administramos intrafusões de análogos de adenosina em CP, imediatamente após o treino em esquiva inibitória. Os resultados demonstraram que a intrafusão de DPCPX, um antagonista de receptores A1, em CP, na concentração de 50 nM, aumentou significativamente a retenção da tarefa em ambas STM e LTM. Além disso, a administração de CPA, um agonista de receptores A1 de adenosina, não alterou ambas STM e LTM nas concentrações testadas. Portanto, este estudo sugere que os receptores A1 exercem uma modulação inibitória em CP tanto na STM quanto na LTM para o aprendizado de esquiva inibitória. A regulação dos níveis de ATP e adenosina pelas ectonucleotidases em CP, CA e FR2 controlaria a ativação dos receptores A1 nestas estruturas, podendo exercer efeitos modulatórios na consolidação da memória nestas estruturas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Alinhamento estratégico, aliado ao planejamento estratégico, é um importante instrumento de gestão. Por isso, novas abordagens para a operacionalização do alinhamento durante todas as etapas do processo de planejamento podem auxiliar o gerenciamento de topo em suas decisões e influir no desempenho organizacional. O objetivo deste estudo, de natureza exploratória, é conceber e desenvolver um modelo operacional de alinhamento estratégico para uso durante a etapa de implementação dos itens planejados, promovendo o ajuste contínuo entre as necessidades de negócio através do devido suporte da Tecnologia da Informação (TI), tendo por base a análise das contribuições dos estudos sobre metodologia de implementação de planos estratégicos. Os principais resultados encontrados mostram que as empresas estudadas estão promovendo o alinhamento estratégico entre negócios e TI com maior ou menor intensidade, mesmo que, em algumas etapas do processo de planejamento, isto seja realizado de forma empírica. Os resultados apontaram os elementos de alinhamento “metodologia” e “instrumentação da gestão” como principais promotores de alinhamento durante a etapa de implementação do processo de planejamento, responsáveis por grande parte do comprometimento dos participantes do processo e pelo atingimento das metas planejadas. A metodologia de acompanhamento da execução dos itens planejados consiste em reuniões freqüentes de alinhamento dos itens de negócio e de TI, para sincronização dos recursos e controle do atingimento das metas e objetivos, mantendo o foco dos objetivos de longo prazo. A operacionalidade da promoção do alinhamento depende da instrumentação dos executivos (CEO e CIO) com o apropriado conjunto informacional representativo do modelo de negócio e de gestão estratégica para acompanhamento da execução dos itens planejados e promoção dos ajustes necessários em tempo real.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A cada ano, mais de 500.000 pessoas vêm a falecer em acidentes de trânsito no mundo. No Brasil, estima-se entre 30.000 e 50.000 mortos no mesmo período. A velocidade elevada é considerada como um dos principais fatores determinantes dos acidentes e da gravidade dos mesmos. O presente trabalho desenvolve uma análise da consistência geométrica de rodovias de pistas simples no Estado do Rio Grande do Sul, através da elaboração de modelos de previsão da velocidade operacional, em duas etapas distintas. Na primeira etapa, a partir da coleta de dados de velocidades pontuais e de elementos geométricos da rodovia, é elaborado um modelo que permite prever o comportamento do condutor, quanto à velocidade que emprega em seu veículo segundo diferentes condicionantes geométricas. Na segunda etapa, o modelo proposto é aplicado sobre diferentes segmentos viários de rodovias de pista simples do Estado do Rio Grande do Sul, para obtenção das velocidades operacionais previstas e os resultados comparados entre si e com as velocidades de projeto e a velocidade regulamentada. A análise dos resultados para obtenção do modelo conclui como única variável significativa para a elaboração do mesmo, entre as diversas analisadas, o raio planimétrico. Já a análise da consistência geométrica das rodovias, através da aplicação do modelo proposto, indicou que estas apresentam projetos geométricos classificados como bons quanto a sua fluidez, mas classificados como fracos quanto ao dimensionamento dos elementos geométricos de segurança (superelevação, superlargura e distâncias de visibilidade) em decorrência de diferenças superiores a 20 km/h entre a velocidade operacional e a velocidade de projeto. Por fim, observa que as rodovias projetadascom velocidadediretriz de 60 km/h ou inferior são as que apresentam os piores resultados na análise da consistência geométrica e que o condutor brasileiro (observado na elaboração do modelo) não pode ser considerado um velocista, mas sim, um condutor mais "ousado", em situações adversas, se comparado a condutores de outros países, em especial, dos Estados Unidos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação pretende apresentar uma etnografia realizada entre antigos moradores da Ilha Grande dos Marinheiros, em Porto Alegre. Enfocam-se suas lembranças na forma de narrativas orais em que contam sobre o cotidiano do lugar onde vivem e suas trajetórias sociais que conformam uma experiência diferenciada de habitar a cidade de Porto Alegre a partir do Bairro Arquipélago, com sua peculiar característica insular. Tomando o Arquipélago enquanto um “território-mito” da cidade, realiza-se a análise da “arte de dizer” desses narradores antigos e das constelações de imagens presentes ao repertório de narrativas míticas, contos fantásticos e lendários sobre desenterramentos de tesouros, aparições e assombrações, lobisomens e bruxaria que remetem, a partir da atual paisagem das ilhas, aos mitos de fundação da Cidade de Porto Alegre e ao trajeto antropológico de assimilação e acomodação da figura de um “Homem da Tradição” às margens da cidade.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Diante do novo cenário internacional globalizado e competitivo, as montadoras têm desenvolvido novas configurações de cadeias de suprimentos e estratégias operacionais, buscando atender às exigências da atual cadeia de valores deste segmento industrial. O objetivo do presente estudo é analisar a estratégia operacional e a cadeia de suprimentos de uma das novas montadoras que se instalou no Brasil, examinando prioritariamente como está definida e o porquê está assim definida. Para que o objetivo fosse atingido, foi estudada sua organização industrial, pois se percebeu que uma cadeia de suprimentos deve estar suportada por uma operação. O estudo realizado evidenciou que a montadora utiliza as melhores práticas operacionais desenvolvidas, porém no contexto local. Ela apresenta dimensões operacionais que vão do fordismo ao lean production, existindo dimensões que podem em um momento assumir uma característica puramente fordista e em outro momento apresentar características lean, sistema operacional baseado na flexibilidade. A cadeia de suprimentos da montadora em questão também se baseia nas melhores práticas de suprimentos. Ela não inova na questão dos modelos. Sua escolha é bastante conservadora, pois segmentou sua cadeia de suprimentos em três diferentes estratégias: outsourcing, just-in-time e gestão de estoques. Talvez aí esteja sua inovação, apresentar flexibilidade de implementar a melhor prática para o contexto econômico e social que encontrou no país. Como conclusão do estudo, foi possível determinar exatamente quais variáveis definem sua cadeia de suprimentos. Uma metodologia flexível, estruturada e consistente guia essa montadora em suas decisões operacionais estratégicas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O trabalho propõe uma definição teórica e operacional para o construto cultura de devoção em empresas familiares e visionárias. Trata-se de uma tentativa de compreender e explicar a dinâmica que envolve a formação de vínculos afetivos entre empregados e organizações do tipo familiares e visionárias. Presume-se que empresa familiar visionária seja toda aquela organização que tem sua origem e história vinculadas a uma família ou grupo familiar e está alicerçada em valores essenciais formulados por seus fundadores. Além do mais, a empresa é líder em seu setor de atuação, passou por vários ciclos de produtos ou serviços e, se não consolidou, pelo menos deu início ao processo sucessório. O trabalho recupera a ideologia básica - valores e objetivos essenciais - que se mantém em todas as fases de desenvolvimento da organização, levando em consideração a declaração desta ideologia, sua continuidade histórica e a coerência entre aquilo que é declarado como essencial e o que é vivido no cotidiano da organização. A maneira como os empregados se apropriam dos valores difundidos decorre de um estruturado sistema de comunicação, de uma consistente política de recursos humanos e de uma adequada administração dos elementos formadores da cultura organizacional. Através de pesquisa empírica com três empresas de um mesmo grupo familiar, observou-se que a identificação dos empregados com os valores organizacionais pode ser explicada pela forma como os empregados se apropriam dos valores difundidos, pelo modo de circulação e consumo dos valores organizacionais, pela política de recursos humanos que reforça o desenvolvimento pessoal interno e pelos elementos simbólicos da cultura organizacional que fortalece o imaginário coletivo e solidifica as significações acerca da idéia de empresa como uma grande família.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este estudo objetivou investigar o funcionamento da memória implícita e explícita em deficientes mentais por Síndrome de Down (SD) comparados com indivíduos deficientes mentais de outras etiologias (DM) e crianças de desenvolvimento típico de mesma idade mental (DT). Foram administrados testes de procedimento viso-espacial e pré-ativação para avaliar memória implícita e testes de memória episódica explícita para material verbal e viso-espacial a 12 sujeitos SD, 12 DM e 12 DT. Considerando o sistema de múltiplas memórias, procurou-se investigar quais estariam preservadas ou falhas nos três grupos. Os resultados demonstraram diferenças nítidas entre os grupos. Percebeu-se uma defasagem significativa de memória implícita na SD, um melhor desempenho de memória implícita nos DM e de memória explícita nas crianças DT. Estes resultados revelam um grande prejuízo implícito na SD, mas também defasagem explícita, reforçando a necessidade de estimulação precoce a esta população. Implicações para o trabalho pedagógico serão discutidas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mecanismos de comunicação entre processos são fundamentais no desenvolvimento de sistemas distribuídos, já que constituem o único meio de compartilhar dados entre processos que não dispõem de memória comum. Um dos principais mecanismos de comunicação utilizados é a troca de mensagens entre os processos componentes do sistema. Existem muitas aplicações que são compostas por um conjunto de processos que cooperam para realizar uma determinada tarefa e que são mais facilmente construídas se o sistema operacional oferecer a possibilidade de se enviar uma mensagem a diversos destinos. Neste caso são necessários mecanismos que permitam a difusão confiável de uma mensagem para um grupo de processos em uma única operação. Tendo em vista esta necessidade, diversos protocolos têm sido apresentados na literatura para permitir a comunicação entre um grupo de processos com diferentes graus de complexidade e de desempenho. Este trabalho apresenta um ambiente para desenvolvimento e utilização de protocolos de comunicação em grupo, denominado FlexGroup. O ambiente divide os protocolos em suas características fundamentais, permitindo que estas características possam ser desenvolvidas separadamente como subprotocolos. Os subprotocolo são interligados através de uma interface comum e gerenciados pelo núcleo do ambiente. A comunicação entre as diversas máquinas da rede é gerenciada pelo FlexGroup, permitindo que o desenvolvedor de um novo subprotocolo possa somente se focar nas características específicas do seu protocolo. Esta modularidade permite, ainda, que apenas as partes de interesse de um novo protocolo precisem ser implementadas, além de também viabilizar a criação de um protocolo baseado nos já existentes no ambiente. Além disso, o ambiente permite que as aplicações de comunicação em grupo possam definir, através de uma biblioteca, o conjunto de subprotocolos que desejam utilizar, em tempo de execução, sem necessidade de conhecer a implementação interna dos subprotocolos.. Da mesma forma, alguém que se proponha a realizar comparações com os protocolos existentes, pode utilizar os diversos subprotocolos e as aplicações existentes, bastando alterar os protocolos utilizados em tempo de execução e avaliando somente as características que deseje analisar.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Diversos estudos sugerem que os receptores inibitórios GABAérgicos do tipo A estão envolvidos no processamento da memória. Para examinar o papel dos receptores GABAA na consolidação da memória, ratos foram implantados bilateralmente com cânulas na região CA1 do hipocampo, córtex entorrinal, córtex parietal posterior e núcleo basolateral da amígdala, e treinados na tarefa de esquiva inibitória. Em diferentes tempos depois do treino, o antagonista dos receptores GABAA - bicuculina - foi infundido nas estruturas acima mencionadas. A bicuculina facilitou a memória quando infundida imediatamente após o treino (0h) no hipocampo, córtex entorrinal e córtex parietal posterior; 1,5h no hipocampo; 3h no córtex entorrinal e no córtex parietal. Nos tempos mais tardios da consolidação da memória (4,5h e 6h) não houve facilitação. A bicuculina não teve efeito na memória quando administrada na amígdala em nenhum dos tempos. Nossos dados sugerem que os receptores GABAérgicos inibem os primeiros momentos da consolidação da memória de longa duração no hipocampo, córtex entorrinal e córtex posterior, mas não nos tempos mais tardios.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta pesquisa tem como objetivo analisar o impacto das fusões e aquisições no desempenho operacional dos bancos comerciais e múltiplos que operam no mercado brasileiro no período compreendido entre 1996 e 2000. Foram examinadas as mudanças na performance de uma amostra de trinta e três bancos envolvidos nestes processos. Para isto foram calculados dezenove indicadores pertencentes às seguintes categorias: retorno para os acionistas, eficiência operacional e qualidade da gerência. A seguir, foram aplicados dois tipos de testes. O teste de séries com sinal de Wilcoxon permitiu provar a significância das mudanças percentuais dos indicadores . O teste foi utilizado para avaliar as seguintes diferenças: dos indicadores de bancos - alvo e dominantes antes das fusões, dos indicadores dos bancos participantes de aquisições para um ano anterior e posterior à compra e dos indicadores dos bancos constituintes das incorporações para um ano antes e depois do acontecimento. O teste t para amostras emparelhadas foi aplicado para avaliar as diferenças nos indicadores de bancos fundidos contra bancos não fundidos durante todo o período de estudo. Foi possível verificar que os processos de aquisição e fusão não resultaram em ganhos significativos na eficiência operacional, quando a eficiência é medida por relações de despesas. Observa-se que estas proporções são maiores nos bancos fundidos, o que mostra uma desvantagem, em termos de eficiência, dos bancos fundidos em comparação com os outros bancos. Para as aquisições observou-se uma melhora nos indicadores de rentabilidade e qualidade da gerência, após a compra. Porém, em comparação com o grupo de controle estes indicadores foram inferiores na maioria dos anos. Por sua vez, as incorporações apresentaram uma diminuição nestes indicadores, mas esta redução não foi significativa. Poder-se-ia inferir que os bancos não fundidos reportaram maiores margens de lucro para os acionistas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho explora a aplicação de técnicas de injeção de falhas, que simulam falhas transientes de hardware, para validar o mecanismo de detecção e de recuperação de erros, medir os tempos de indisponibilidade do banco de dados após a ocorrência de uma falha que tenha provocado um FUDVK. Adicionalmente, avalia e valida a ferramenta de injeção de falhas FIDe, utilizada nos experimentos, através de um conjunto significativo de testes de injeção de falhas no ambiente do SGBD. A plataforma experimental consiste de um computador Intel Pentium 550 MHz com 128 MB RAM, do sistema operacional Linux Conectiva kernel versão 2.2.13. O sistema alvo das injeções de falhas é o SGBD centralizado InterBase versão 4.0. As aplicações para a carga de trabalho foram escritas em VFULSWV SQL e executadas dentro de uma sessão chamada LVTO. Para a injeção de falhas foram utilizadas três técnicas distintas: 1) o comando NLOO do sistema operacional; 2) UHVHW geral no equipamento; 3) a ferramenta de injeção de falhas FIDe, desenvolvida no grupo de injeção de falhas do PPGC da UFRGS. Inicialmente são introduzidos e reforçados os conceitos básicos sobre o tema, que serão utilizados no decorrer do trabalho e são necessários para a compreensão deste estudo. Em seguida é apresentada a ferramenta de injeção de falhas Xception e são também analisados alguns experimentos que utilizam ferramentas de injeção de falhas em bancos de dados. Concluída a revisão bibliográfica é apresentada a ferramenta de injeção de falhas – o FIDe, o modelo de falhas adotado, a forma de abordagem, a plataforma de hardware e software, a metodologia e as técnicas utilizadas, a forma de condução dos experimentos realizados e os resultados obtidos com cada uma das técnicas. No total foram realizados 3625 testes de injeções de falhas. Com a primeira técnica foram realizadas 350 execuções, com a segunda técnica foram realizadas 75 execuções e com a terceira técnica 3200 execuções, em 80 testes diferentes. O modelo de falhas proposto para este trabalho refere-se a falhas de crash baseadas em corrupção de memória e registradores, parada de CPU, aborto de transações ou reset geral. Os experimentos foram divididos em três técnicas distintas, visando a maior cobertura possível de erros, e apresentam resultados bastante diferenciados. Os experimentos com o comando NLOO praticamente não afetaram o ambiente do banco de dados. Pequeno número de injeção de falhas com o FIDe afetaram significativamente a dependabilidade do SGBD e os experimentos com a técnica de UHVHW geral foram os que mais comprometeram a dependabilidade do SGBD.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho trata da técnica de validação experimental de protocolos de comunicação confiável, através da injeção de falhas de comunicação. São estudadas inicialmente as técnicas de injeção de falhas, por hardware, software e simulação, e então são aprofundados os conceitos de injeção de falhas de comunicação, modelos de falha e especificação de experimentos de injeção de falhas. Em um segundo momento, são estudadas as formas de implementação de injetores de falhas em software, em suas duas formas mais comuns: no nível da aplicação e no nível do sistema operacional. São comentados os impactos da implementação de injetores no código da aplicação, por processos concorrentes à aplicação, em código utilizado pela aplicação e no meta-nível. Por fim, são estudados também que influências sofre a implementação de um injetor de falhas em um sistema operacional, e mais especificamente a de injetores de falhas de comunicação. O objetivo específico deste trabalho é implementar um injetor de falhas de comunicação bastante abrangente e flexível, situado dentro do núcleo do Sistema Operacional Linux. Para viabilizar esta implementação foi estudada também a arquitetura do Sistema Operacional Linux, sua decomposição em subsistemas e a interação entre estes. Foram estudadas também as várias técnicas de programação e mecanismos que o Sistema Operacional Linux fornece aos seus subsistemas. Estando completas a revisão bibliográfica a respeito de injeção de falhas e o estudo do código do Sistema Operacional Linux, são apresentadas a proposta e a implementação da ferramenta ComFIRM—Communication Fault Injection through Operating System Resource Modification, suas características e sua inserção dentro do núcleo do Sistema Operacional Linux. Finalizando este trabalho, são apresentados uma pequena série de testes de funcionamento e experimentos realizados com a ferramenta ComFIRM, visando demonstrar a correção de seu funcionamento, o cumprimento de seus objetivos e também sua praticidade e flexibilidade de uso. São apresentadas as conclusões deste trabalho, propostas de melhorias à ferramenta apresentada, bem como possibilidades de trabalhos futuros.