997 resultados para falhas de coordenação
Resumo:
Neste trabalho é apresentado o desenvolvimento de um método de análise de falhas, por meio de análise de vibrações, para a bancada de final de linha das transmissões dos tratores linha 5000 da John Deere Brasil, o qual tem como finalidade diferenciar transmissões aprovadas de transmissões com defeito em engrenagens na caixa de marchas, e também auxiliar na identificação da engrenagem com defeito. Para o desenvolvimento deste método foram utilizados equipamentos de medição e aquisição de dados disponíveis na John Deere Brasil. Os testes foram realizados na bancada de final da linha de transmissões, possibilitando a aplicação do método sem a necessidade de alteração na bancada de testes. Os sinais padrões da transmissão em cada uma das quatro marchas foram levantados através da medição de quatro transmissões boas. De posse destes padrões, (assinatura em cada marcha), partiu-se para a identificação de como estes são alterados por diferentes defeitos em diversas engrenagens da caixa de marchas, sendo para isto induzidos defeitos em diferentes engrenagens da caixa de marchas de transmissões boas. Os sinais em todas as marchas nestas transmissões com defeito induzido foram medidos e analisado as alterações em relação aos padrões, resultando a conclusão de que a aplicação do método de análise de vibrações no final de linha de transmissões da John Deere Brasil é possível, tanto para a diferenciação entre transmissões boas e transmissões com defeito em engrenagens da caixa de marchas, quanto como auxiliar na identificação de qual engrenagem da caixa de marchas está com defeito.
Resumo:
Técnicas de tolerância a falhas visam a aumentar a dependabilidade dos sistemas nos quais são empregadas. Entretanto, há necessidade de garantir a confiança na capacidade do sistema em fornecer o serviço especificado. A validação possui como objetivo propiciar essa garantia. Uma técnica de validação bastante utilizada é a injeção de falhas, que consiste na introdução controlada de falhas no sistema para observar seu comportamento. A técnica de injeção de falhas acelera a ocorrência de falhas em um sistema. Com isso, ao invés de esperar pela ocorrência espontânea das falhas, pode-se introduzi-las intencionalmente, controlando o tipo, a localização, o disparo e a duração das falhas. Injeção de falhas pode ser implementada por hardware, software ou simulação. Neste trabalho são enfocadas técnicas de injeção de falhas por software, desenvolvidas nos níveis da aplicação e do sistema operacional. O trabalho apresenta o problema da validação, através da injeção de falhas, de um protocolo de troca de pacotes. Enfoque especial é dado ao impacto resultante da inclusão de um módulo extra no protocolo, uma vez que o mesmo apresenta restrições temporais. O trabalho investiga alternativas de implementação de injetores de falhas por software que minimizem este impacto. Tais alternativas referem-se a localização do injetor de falhas no sistema, a forma de ativação das atividades do injetor de falhas e a operação de injeção de falhas em si. Um toolkit para experimentos de intrusão da injeção de falhas é apresentado. O alvo da injeção de falhas é um protocolo com característica tempo real. O toolkit desenvolvido, denominado INFIMO (INtrusiveless Fault Injector MOdule), visa a analisar, de forma experimental, a intrusão do injetor de falhas sobre o protocolo alvo. O INFIMO preocupa-se com protocolos com restrições temporais por esses constituírem um desafio sob o ponto de vista de injeção de falhas. O INFIMO suporta falhas de comunicação, as quais podem ocasionar a omissão de alguns pacotes. O INFIMO apresenta duas ferramentas de injeção de falhas: INFIMO_LIB, implementada no nível da aplicação e INFIMO_DBG implementada com auxílio de recursos do sistema operacional. Destacam-se ainda como contribuições do INFIMO a definição e a implementação do protocolo alvo para experimentos de injeção de falhas, o protocolo INFIMO_TAP. Além disso, o INFIMO apresenta métricas para avaliação da intrusão provocada pelo injetor de falhas no protocolo alvo.
Resumo:
A inserção das empresas transnacionais no Brasil afeta a competitividade das empresas brasileiras. Há dificuldades de crescimento ou mesmo de sobrevivência das empresas com atuação local frente ao processo de Globalização. Neste contexto, a cadeia do leite é exemplar, pois apresenta concentração no elo da industrialização, com a presença tanto de empresas transnacionais instaladas no país como pela importação de produtos lácteos dos países do MERCOSUL (principalmente Uruguai e Argentina). Neste estudo é analisada uma empresa transnacional, líder de mercado em alguns segmentos de produtos lácteos, que se instalou no país nos últimos anos. É caracterizada e descrita a forma de inserção adotada, a configuração e a coordenação internacional, além do papel estratégico que a subsidiária brasileira exerce na estratégia da matriz. No que concerne as empresas locais, apresentam-se casos de três laticínios locais que também posicionam-se no elo da industrialização do leite. São identificadas quais as opções estratégias que elas adotaram com as mudanças do mercado, e em particular com a entrada da transnacional no país. Os resultados deste trabalho contribuem pela utilização de um referencial teórico novo e trabalhando de forma conjunta duas questões importantes, porém tratadas separadamente na literatura, como configuração e cooperação. No nível prático, exemplificou-se a gama de opções estratégicas disponíveis às empresas locais.
Resumo:
O presente trabalho realiza uma validação experimental, através da técnica de injeção de falhas por software, de sistemas de informações que utilizam gerenciadores de banco de dados distribuídos comerciais. Estes experimentos visam a obtenção de medidas da dependabilidade do SGBD utilizado, levantamento do custo de seus mecanismos de tolerância a falhas e a real aplicabilidade de SGBDs comerciais em sistemas de missão crítica. Procurou-se avaliar e validar as ferramentas de injeção de falhas utilizadas, no caso específico deste trabalho a ComFIRM e o FIDe. Inicialmente são introduzidos e reforçados os conceitos básicos sobre o tema, que serão utilizados no decorrer do trabalho. Em seguida são apresentadas algumas ferramentas de injeção de falhas em sistemas distribuídos, bem como os modelos de falhas em banco de dados distribuídos. São analisados alguns estudos de aplicação de ferramentas de injeção de falhas em bancos de dados distribuídos. Concluída a revisão bibliográfica é apresentado o modelo de software e hardware que foi implementado, destacando o gerador de cargas de trabalho GerPro-TPC e o gerenciador de injeções e resultados GIR. O GerPro-TPC segue as especificações TPC-c para a simulação de um ambiente transacional comercial padrão e o GIR realiza a integração das ferramentas de injeção de falhas utilizadas, bem como a elaboração do cenário de falhas a injetar e a coleta dos resultados das falhas injetadas. Finalmente são descritos os experimentos realizados sobre o SGBD PROGRESS. São realizados 361 testes de injeções de falhas com aproximadamente 43.000 falhas injetadas em experimentos distintos. Utiliza-se dois modelos de falhas: um focado em falhas de comunicação e outro em falhas de hardware. Os erros resultantes das falhas injetadas foram classificados em erros ignorados/mascarados, erros leves, erros graves e erros catastróficos. Dos modelos de falhas utilizados as que mais comprometeram a dependabilidade do SGBD foram as falhas de hardware. As falhas de comunicação somente comprometeram a disponibilidade do sistema alvo.
Resumo:
Nos ultimos anos, com a crescente popularização das redes de computadores baseadas no protocolo IP, desde pequenas redes até metropolitanas começaram a se agrupar e a fazer do que hoje se conhece como a rede mundial de computadores.Apesar dos benefícios de comunicação e troca de informação da Internet, esse feômeno global também trouxe problemas de segurança, pois a origem e estrutura dos protocolos utilizados na comunicação entre as diversas máquinas limitam as possibilidades de prevenir, identificar ou detectar possíveis ataques ou intrusos. Assim, várias ferramentas surgiram para prevenir e auxiliar na tarefa de identicar problemas de segurança nas redes como firewalls, sniffers e sistemas de detecção de intrusão. Apesar dos benefícios trazidos por essas novas tecnologias, surgiram muitas dúvidas referentes a segurança que esses recursos proporcionam. Afinal, o desenvolvimento e validação desses sistemas são procedimentos bastante complexos e, freqüentemente, esses sitemas têm se tornado o alvo primário de um atacante. O resultado disso, não raramente, é uma falsa noção de segurança devido à utilização inadequada desses mecanismos, o que é, normalmente, mais prejudicial do que a simples inexistência de segurança em uma organização, mas cujas falhas são conhecidas por seus administradores. A realização de testes para verificação da segurança de uma organização é uma atividade fundamental a fim de alcançar um ambiente operacional seguro e de verificar a correta aplicação dos requisitos de segurança de uma organização.O uso de testes permite a uma empresa verificar com precisão a postura de segurança utilizada em seus sistemas ao mesmo tempo em que permite visualizar a sua rede da mesma maneira que um atacante a visualizaria. Ao visualizar a rede como atacante, pode-se verificar com que facilidade obtém-se informações da rede, quais suas fragilidades e a dificuldade que se tem para invadí-la. Assim, obtém-se uma visão mais realista da segurança de uma organização. Além de técnicas para a avaliação, é muito importante que se possua ferramentas para a realização desses testes. Assim, é possível automotizar a realização de testes e verificar com maior facilidade a existência de problemas em uma rede. A existência de ferramentas que testem sistemas de segurnaça é extremamente importante e necessária, pois, afinal, a segurança de toda uma rede pode depender fortemente de algum desses sistemas. Este trabalho apresenta as técncias existentes para a injecção de falhas visando verificar as que são mais eficientes para a valiação de sistemas de segurança de rede. Adicionalmente são apresentadas algumas técnicas para o teste de mecanismos de segurança e algumas ferramentas existentes para a realizão de tais testes. A partir desses estudos, é apresentado um modelo de ferramenta adequando as funções de um sistema de injeção de falhas ao teste de mecanismos de segurança em rede. Um protótipo essa ferramenta foi desenvolvido e é apresentado neste trabalho. Esse protótipo permite o envio e o recebimento de pacotes da pilha TCP/IP, podendo testar problemas em protocolos e sistemas utilizados na rede. E, através da utilização de plug-ins, permite que diversos tipos de ataque mais sofisticados possam ser realizados.
Resumo:
Na década de 90 foram produzidos estudos empíricos cuja amostragem envolvia praticamente toda a população existente, isto é, quase todas as nações do mundo. O objetivo declarado destes estudos era correlacionar determinadas variáveis econômicas com o nível de renda e de bem-estar social de cada nação. Naturalmente, sob o ponto de vista da economia, o conceito de bem-estar social deve refletir-se em dados concretos, passíveis de aferição objetiva, e não em critérios subjetivos, sejam estes de natureza cultural ou psicológica. Portanto, o bem-estar social, que é estatisticamente correlacionado com o nível de renda, traduz-se em indicadores como escolaridade, expectativa de vida, taxas de mortalidade, corrupção e pobreza humana, entre outros. Em complemento a estas evidências empíricas, o presente trabalho procura apresentar justificações teóricas que expliquem este desempenho mais eficiente de determinadas economias em relação a outras. Assim, transitando entre diferentes programas de pesquisa, a teoria desenvolvida tentará explicar as atividades de coordenação econômica, enfatizando a influência das restrições impostas aos agentes pelos custos, os incentivos representados pelos preços de mercado, e ainda a importância do arcabouço institucional vigente.
Resumo:
O presente trabalho explora a aplicação de técnicas de injeção de falhas, que simulam falhas transientes de hardware, para validar o mecanismo de detecção e de recuperação de erros, medir os tempos de indisponibilidade do banco de dados após a ocorrência de uma falha que tenha provocado um FUDVK. Adicionalmente, avalia e valida a ferramenta de injeção de falhas FIDe, utilizada nos experimentos, através de um conjunto significativo de testes de injeção de falhas no ambiente do SGBD. A plataforma experimental consiste de um computador Intel Pentium 550 MHz com 128 MB RAM, do sistema operacional Linux Conectiva kernel versão 2.2.13. O sistema alvo das injeções de falhas é o SGBD centralizado InterBase versão 4.0. As aplicações para a carga de trabalho foram escritas em VFULSWV SQL e executadas dentro de uma sessão chamada LVTO. Para a injeção de falhas foram utilizadas três técnicas distintas: 1) o comando NLOO do sistema operacional; 2) UHVHW geral no equipamento; 3) a ferramenta de injeção de falhas FIDe, desenvolvida no grupo de injeção de falhas do PPGC da UFRGS. Inicialmente são introduzidos e reforçados os conceitos básicos sobre o tema, que serão utilizados no decorrer do trabalho e são necessários para a compreensão deste estudo. Em seguida é apresentada a ferramenta de injeção de falhas Xception e são também analisados alguns experimentos que utilizam ferramentas de injeção de falhas em bancos de dados. Concluída a revisão bibliográfica é apresentada a ferramenta de injeção de falhas – o FIDe, o modelo de falhas adotado, a forma de abordagem, a plataforma de hardware e software, a metodologia e as técnicas utilizadas, a forma de condução dos experimentos realizados e os resultados obtidos com cada uma das técnicas. No total foram realizados 3625 testes de injeções de falhas. Com a primeira técnica foram realizadas 350 execuções, com a segunda técnica foram realizadas 75 execuções e com a terceira técnica 3200 execuções, em 80 testes diferentes. O modelo de falhas proposto para este trabalho refere-se a falhas de crash baseadas em corrupção de memória e registradores, parada de CPU, aborto de transações ou reset geral. Os experimentos foram divididos em três técnicas distintas, visando a maior cobertura possível de erros, e apresentam resultados bastante diferenciados. Os experimentos com o comando NLOO praticamente não afetaram o ambiente do banco de dados. Pequeno número de injeção de falhas com o FIDe afetaram significativamente a dependabilidade do SGBD e os experimentos com a técnica de UHVHW geral foram os que mais comprometeram a dependabilidade do SGBD.
Resumo:
Este trabalho trata da técnica de validação experimental de protocolos de comunicação confiável, através da injeção de falhas de comunicação. São estudadas inicialmente as técnicas de injeção de falhas, por hardware, software e simulação, e então são aprofundados os conceitos de injeção de falhas de comunicação, modelos de falha e especificação de experimentos de injeção de falhas. Em um segundo momento, são estudadas as formas de implementação de injetores de falhas em software, em suas duas formas mais comuns: no nível da aplicação e no nível do sistema operacional. São comentados os impactos da implementação de injetores no código da aplicação, por processos concorrentes à aplicação, em código utilizado pela aplicação e no meta-nível. Por fim, são estudados também que influências sofre a implementação de um injetor de falhas em um sistema operacional, e mais especificamente a de injetores de falhas de comunicação. O objetivo específico deste trabalho é implementar um injetor de falhas de comunicação bastante abrangente e flexível, situado dentro do núcleo do Sistema Operacional Linux. Para viabilizar esta implementação foi estudada também a arquitetura do Sistema Operacional Linux, sua decomposição em subsistemas e a interação entre estes. Foram estudadas também as várias técnicas de programação e mecanismos que o Sistema Operacional Linux fornece aos seus subsistemas. Estando completas a revisão bibliográfica a respeito de injeção de falhas e o estudo do código do Sistema Operacional Linux, são apresentadas a proposta e a implementação da ferramenta ComFIRM—Communication Fault Injection through Operating System Resource Modification, suas características e sua inserção dentro do núcleo do Sistema Operacional Linux. Finalizando este trabalho, são apresentados uma pequena série de testes de funcionamento e experimentos realizados com a ferramenta ComFIRM, visando demonstrar a correção de seu funcionamento, o cumprimento de seus objetivos e também sua praticidade e flexibilidade de uso. São apresentadas as conclusões deste trabalho, propostas de melhorias à ferramenta apresentada, bem como possibilidades de trabalhos futuros.
Resumo:
O objetivo deste artigo é discutir a necessidade de uma microfundamentação para a macroeconomia. Para tanto procurará mostrar que este é um falso problema para a análise Keynesiana, na medida em que esta supõe que a coordenação da economia não pode ser feita mediante os mecanismos de preços, mas que depende de certos arranjos institucionais. De outro lado, a análise procurará mostrar que os mecanismos de preços não podem coordenar uma economia real, no caso a capitalista, se supusermos realisticamente que esta apresenta, através do mecanismo de preços, comportamentos complexos e/ou caóticos.
Resumo:
The aim of this paper is to relate the macroeconomic and the microeconomic aspects of stabilization policies, with a special regard to the situation in Latin America, mainly Brazil and Argentina. In order to make this analysis, it was firstly necessary to rethink on a critical basis the failures of microfoundations of macroeconomics, and from this point on to assess the main problems of stabilization policies formulation if these critical considerations are not undertaken.
Resumo:
Em ambientes dinâmicos e complexos, a política ótima de coordenação não pode ser derivada analiticamente, mas, deve ser aprendida através da interação direta com o ambiente. Geralmente, utiliza-se aprendizado por reforço para prover coordenação em tais ambientes. Atualmente, neuro-evolução é um dos métodos de aprendizado por reforço mais proeminentes. Em vista disto, neste trabalho, é proposto um modelo de coordenação baseado em neuro-evolução. Mais detalhadamente, desenvolveu-se uma extensão do método neuro-evolutivo conhecido como Enforced Subpopulations (ESP). Na extensão desenvolvida, a rede neural que define o comportamento de cada agente é totalmente conectada. Adicionalmente, é permitido que o algoritmo encontre, em tempo de treinamento, a quantidade de neurônios que deve estar presente na camada oculta da rede neural de cada agente. Esta alteração, além de oferecer flexibilidade na definição da topologia da rede de cada agente e diminuir o tempo necessário para treinamento, permite também a constituição de grupos de agentes heterogêneos. Um ambiente de simulação foi desenvolvido e uma série de experimentos realizados com o objetivo de avaliar o modelo proposto e identificar quais os melhores valores para os diversos parâmetros do modelo. O modelo proposto foi aplicado no domínio das tarefas de perseguição-evasão.
Resumo:
O estudo procura identificar o processo de transferência dos trens urbanos do âmbito da administração federal para os estados e municípios. Busca-se traçar um panorama histórico da evolução dos sistemas de trens no brasil desde a sua gênese até os dias atuais e a diferenciação das características entre a malha ferroviária de transporte de carga e os sistemas metropolitanos de transporte de massa com trens e metrôs. Em seguida o programa de descentralização é descrito tal como foi concebido e como tem se desenvolvido ao longo de seus dez anos e é feita a avaliação de seus resultados. A avaliação é feita através dos relatórios oficiais disponíveis sobre o assunto e de uma pesquisa de opinião entre um grupo de técnicos qualificados. Termina-se com uma exploração sobre os papéis futuros do governo federal na área de transportes urbanos e com as principais conclusões sobre o programa.
Resumo:
This essay aims to discuss local development under the prospect of coordinated intervention of multiple organizations, considering different thematic areas of action, different economic sectors and regions of origin; structured in different methodologies and owners of different social technologies field of expertises. Search to identify determinants, facilitators, and restrictive factors of cross sectorial and cross organizational coordination processes for a common purpose. The field research was conducted at a region of State of Minas Gerais, Brazil, where a group of 13 organizations that fit the profile described above, joined up to work jointly, facilitating the environment for local development. The region is between those with the lowest incomes in Brazil. The objective of this study was to verifry what extent the practices implemented by the organizations context (the municipality in question has population of less than 40.000 inhabitants), are contributing to the formation and / or strengthening of a local scene of more opportunities that compete for the quality of life of the population. To meet this goal were interviewd 52 citizens between representatives of organizations, the government, civil society and citizens directly benefit from the Sustainable Araçuaí iniciative, using the semi-structured interview. The result has been the relationship between partnerships determining factors, facilitators and restrictive labour, structured on a conceptual map, and the perception of the impact that these actions have caused coordinates the council from the perspective of the interviewees
Resumo:
A Coordenação Modular pode ser entendida como a ordenação dos espaços na construção civil. Surgiu entre a Primeira (1914-1918) e a Segunda (1939-1945) Guerras Mundiais e contribuiu de forma fundamental na reconstrução de edificações residenciais nos países destruídos pela guerra, principalmente na Alemanha, em função da rapidez e da redução de custos proporcionadas pela sua utilização. A partir de então, muitos estudos surgiram, aprofundando o assunto e mostrando os imensos benefícios que a Coordenação Modular trouxe para a racionalização e a industrialização na construção civil em um grande número de países, sendo amplamente difundida e, hoje se sabe, utilizada. O Brasil foi um dos pioneiros, em nível mundial, a aprovar uma norma de Coordenação Modular, a NB-25R, em 1950, tendo os anos 70 e início dos 80 tomados por seus conceitos e estudos a respeito. Apesar disso, poucos objetivos foram alcançados mesmo com toda a promoção para a racionalização da construção. As atuais preocupações com as questões ambientais, de produtividade e de redução de custos no setor são aliados para uma retomada dos estudos de Coordenação Modular, que se mostra como um fator fundamental para que se traga à construção civil os benefícios que a industrialização trouxe a outros setores industriais. Foi realizado um levantamento histórico, em que são abordadas as questões relativas ao uso do módulo na arquitetura e sua evolução até a Coordenação Modular, os princípios e conceitos mais importantes de sua teoria e as ações realizadas em favor de sua implantação no Brasil As últimas ações identificadas foram as normas publicadas em 1982, pouco antes do fechamento do Banco Nacional da Habitação, até então o principal incentivador da Coordenação Modular. Em seguida a esse hiato de duas décadas em que ficou praticamente esquecida, estudou-se a situação atual da indústria da construção civil sob alguns aspectos e partiu-se em busca do que pode ser feito para a implementação da Coordenação Modular no país. Chegou-se à conclusão de que, apesar dos entraves existentes, o Programa Brasileiro de Produtividade e Qualidade no Habitat (PBQP-H) mostra-se como um instrumento propício para essa implementação, pois, além de contar com o suporte estatal, tem influência sobre todos os intervenientes da cadeia produtiva.
Resumo:
A utilização da abordagem de agentes, nas mais diversas áreas de aplicações, mostra o interesse nas pesquisas sobre sistemas multiagentes. Este interesse surgiu da necessidade de aplicar novas técnicas e conceitos para a construção de sistemas e para auxiliar no seu desenvolvimento. Neste sentido, os agentes satisfazem às expectativas, não sendo apenas utilizados para a solução de problemas acadêmicos, mas também de sistemas reais. Na ciência da computação, a inteligência artificial distribuída está profundamente relacionada com o problema de coordenação. O objetivo é projetar mecanismos de coordenação para grupos de agentes artificiais. Várias características envolvem a atuação de agentes em um ambiente multiagente, como os mecanismos de cooperação, coordenação, comunicação, organização, entre outros. Este trabalho apresenta um estudo sobre coordenação multiagente, enfatizando a sua avaliação. O objetivo é apresentar uma proposta de avaliação, com um conjunto de critérios definidos para serem aplicados em modelos de coordenação. Inicialmente, é apresentado um estudo sobre coordenação de agentes. A seguir, são abordados vários modelos de coordenação encontrados na literatura da área. A parte principal do trabalho corresponde à definição de critérios para avaliação da coordenação, a serem utilizados em duas etapas: uma análise do problema, com vistas à escolha de um modelo de coordenação a ser empregado em uma determinada aplicação, e uma avaliação a posteriori, baseada nos critérios propostos para avaliar o comportamento de um sistema coordenado após o uso de um modelo de coordenação específico.Para exemplificar a aplicação dos critérios, dois estudos de caso são apresentados e foram utilizados para os experimentos: um referente ao domínio da Robocup, utilizando o Time UFRGS e, outro, referente ao gerenciamento de agendas distribuídas.