136 resultados para Ambiente Operacional
em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul
Resumo:
Nos ultimos anos, com a crescente popularização das redes de computadores baseadas no protocolo IP, desde pequenas redes até metropolitanas começaram a se agrupar e a fazer do que hoje se conhece como a rede mundial de computadores.Apesar dos benefícios de comunicação e troca de informação da Internet, esse feômeno global também trouxe problemas de segurança, pois a origem e estrutura dos protocolos utilizados na comunicação entre as diversas máquinas limitam as possibilidades de prevenir, identificar ou detectar possíveis ataques ou intrusos. Assim, várias ferramentas surgiram para prevenir e auxiliar na tarefa de identicar problemas de segurança nas redes como firewalls, sniffers e sistemas de detecção de intrusão. Apesar dos benefícios trazidos por essas novas tecnologias, surgiram muitas dúvidas referentes a segurança que esses recursos proporcionam. Afinal, o desenvolvimento e validação desses sistemas são procedimentos bastante complexos e, freqüentemente, esses sitemas têm se tornado o alvo primário de um atacante. O resultado disso, não raramente, é uma falsa noção de segurança devido à utilização inadequada desses mecanismos, o que é, normalmente, mais prejudicial do que a simples inexistência de segurança em uma organização, mas cujas falhas são conhecidas por seus administradores. A realização de testes para verificação da segurança de uma organização é uma atividade fundamental a fim de alcançar um ambiente operacional seguro e de verificar a correta aplicação dos requisitos de segurança de uma organização.O uso de testes permite a uma empresa verificar com precisão a postura de segurança utilizada em seus sistemas ao mesmo tempo em que permite visualizar a sua rede da mesma maneira que um atacante a visualizaria. Ao visualizar a rede como atacante, pode-se verificar com que facilidade obtém-se informações da rede, quais suas fragilidades e a dificuldade que se tem para invadí-la. Assim, obtém-se uma visão mais realista da segurança de uma organização. Além de técnicas para a avaliação, é muito importante que se possua ferramentas para a realização desses testes. Assim, é possível automotizar a realização de testes e verificar com maior facilidade a existência de problemas em uma rede. A existência de ferramentas que testem sistemas de segurnaça é extremamente importante e necessária, pois, afinal, a segurança de toda uma rede pode depender fortemente de algum desses sistemas. Este trabalho apresenta as técncias existentes para a injecção de falhas visando verificar as que são mais eficientes para a valiação de sistemas de segurança de rede. Adicionalmente são apresentadas algumas técnicas para o teste de mecanismos de segurança e algumas ferramentas existentes para a realizão de tais testes. A partir desses estudos, é apresentado um modelo de ferramenta adequando as funções de um sistema de injeção de falhas ao teste de mecanismos de segurança em rede. Um protótipo essa ferramenta foi desenvolvido e é apresentado neste trabalho. Esse protótipo permite o envio e o recebimento de pacotes da pilha TCP/IP, podendo testar problemas em protocolos e sistemas utilizados na rede. E, através da utilização de plug-ins, permite que diversos tipos de ataque mais sofisticados possam ser realizados.
Resumo:
Este trabalho discute a aplicação de modelos de Pesquisa Operacional como base para o gerenciamento de operações e análise de tecnologias em empresa de transporte de carga. Inicialmente, busca-se contextualizar o escopo deste trabalho dentro do ambiente competitivo atual a fim de que sejam percebidas as conexões entre os sistemas de operações vigentes e os modelos apresentados. Também é feita uma discussão preliminar do conceito de logística, visto que este enseja uma série de acepções para o termo. Em seguida é apresentada uma revisão de algumas ferramentas de modelagem que usualmente são aplicadas a problemas de suprimento, distribuição e transbordo de produtos. Com base nesta revisão é proposta uma abordagem hierarquizada para o tratamento de problemas de logística. Um estudo de caso realizado em uma empresa de transporte de carga busca então aplicar algumas ferramentas de Pesquisa Operacional nos diversos níveis de gerenciamento de operações. Por fim, o trabalho verifica as potencialidades do uso de uma abordagem hierarquizada e a importância da adoção de modelos em empresas de transporte de carga como forma de alavancagem da sua competividade frente as novas exigências do mercado.
Resumo:
Mecanismos de comunicação entre processos são fundamentais no desenvolvimento de sistemas distribuídos, já que constituem o único meio de compartilhar dados entre processos que não dispõem de memória comum. Um dos principais mecanismos de comunicação utilizados é a troca de mensagens entre os processos componentes do sistema. Existem muitas aplicações que são compostas por um conjunto de processos que cooperam para realizar uma determinada tarefa e que são mais facilmente construídas se o sistema operacional oferecer a possibilidade de se enviar uma mensagem a diversos destinos. Neste caso são necessários mecanismos que permitam a difusão confiável de uma mensagem para um grupo de processos em uma única operação. Tendo em vista esta necessidade, diversos protocolos têm sido apresentados na literatura para permitir a comunicação entre um grupo de processos com diferentes graus de complexidade e de desempenho. Este trabalho apresenta um ambiente para desenvolvimento e utilização de protocolos de comunicação em grupo, denominado FlexGroup. O ambiente divide os protocolos em suas características fundamentais, permitindo que estas características possam ser desenvolvidas separadamente como subprotocolos. Os subprotocolo são interligados através de uma interface comum e gerenciados pelo núcleo do ambiente. A comunicação entre as diversas máquinas da rede é gerenciada pelo FlexGroup, permitindo que o desenvolvedor de um novo subprotocolo possa somente se focar nas características específicas do seu protocolo. Esta modularidade permite, ainda, que apenas as partes de interesse de um novo protocolo precisem ser implementadas, além de também viabilizar a criação de um protocolo baseado nos já existentes no ambiente. Além disso, o ambiente permite que as aplicações de comunicação em grupo possam definir, através de uma biblioteca, o conjunto de subprotocolos que desejam utilizar, em tempo de execução, sem necessidade de conhecer a implementação interna dos subprotocolos.. Da mesma forma, alguém que se proponha a realizar comparações com os protocolos existentes, pode utilizar os diversos subprotocolos e as aplicações existentes, bastando alterar os protocolos utilizados em tempo de execução e avaliando somente as características que deseje analisar.
Resumo:
O presente estudo enfoca as implicações do ambiente e recursos para a estratégia e a performance, bem como as implicações da estratégia para a performance de empresas industriais em operação em sete estados brasileiros, e analisa a perspectiva determinista e a perspectiva voluntarista na busca de explicações a respeito da associação das variáveis estudadas. Além de uma extensa revisão bibliográfica, o estudo utiliza métodos estatísticos multivariados para reduzir e aferir o grau de associação entre as variáveis selecionadas. A estratégia das empresas é analisada com base na tipologia de Miles e Snow (1978). A performance das empresas é avaliada com base em seis indicadores financeiros e operacionais de ampla utilização em pesquisa sobre administração estratégica [Retorno Sobre Os Investimentos (ROI), Retorno Sobre os Ativos (ROA), Retorno Sobre as Vendas (ROS), Retorno Sobre o Patrimônio Líquido (ROE), Participação de Mercado (PME) e Crescimento das Vendas (CTV)]. Uma moldura conceitual integrando ambiente, recursos, estratégia e performance é proposta e testada por meio de análise de regressão, e seus resultados mostram que estrutura industrial, demografia e internacional são os principais determinantes da estratégia. Estrutura industrial, ambiente nacional, demografia e internacional são os principais determinantes da performance financeira, ao passo que estrutura industrial, demografia, recursos estruturais e recursos primários são os principais determinantes da performance operacional. Por sua vez, a estratégia não apresentou associação com a performance financeira nem com a performance operacional. Os resultados do estudo negam a existência de efeito de mediação da estratégia sobre a relação entre o ambiente e recursos e a performance, tanto financeira como operacional, apesar de existir um forte potencial mediacional. Por outro lado, os resultados confirmam a existência de efeito moderador da estratégia sobre a relação entre o ambiente e recursos com a performance financeira e operacional em relação ao modelo geral e aos recursos primários de maneira especial.
Resumo:
Foi construído um equipamento que possibilitou a determinação dos parâmetros de fluidização de amostras de granulometrias simples e de misturas binárias, de carvão de Charqueadas com granulonetrias entre 9 e 28 malhas (mesh number), à temperatura ambiente, tendo-se obtido uma correlação para o cálculo da velocidade mínima de fluidização em função do diâmetro das partículas.
Resumo:
Este trabalho é um estudo experimental sobre a utilização do correIO eletrônico como apoio às atividades de trabalho de um grupo de pessoas em relação à função de administrar a informação.A proposta é verificarquais são os procedimentos e qual a percepção dos usuários frente ao correio eletrônico. A pesquisa é realizada em três etapas. A primeira retrata um cenário do ambiente estudado. A segunda é uma intervenção sobre parte do grupo, disposta a melhorar a utilização do correio eletrônico, minimizar os problemas existentes e aumentar a qualidade da troca de informações. Por fim, a terceira etapa verifica os efeitos ocorridos e forma um novo cenário, que é confrontado com o primeiro. Todo esse processo parte da identificaçãode um problema - sobrecarga de informação - para então propor uma solução - gerência da informação - e definir um resultado esperado - melhor uso do sistema de correio eletrônico.
Resumo:
O modelo de objetos apresenta-se como um modelo promissor para o desenvolvimento de software tolerante a falhas em virtude de características inerentes ao próprio modelo de objetos, tais como abstração de dados, encapsulamento, herança e reutilização de objetos (componentes). O uso de técnicas orientadas a objetos facilita o controle da complexidade do sistema porque promove uma melhor estruturação de seus componentes e também permite que componentes já validados sejam reutilizados [LIS96]. Técnicas básicas para tolerância a falhas em software baseiam-se na diversidade de projeto e de implementação de componentes considerados críticos. Os componentes diversitários são gerenciados através de alguma técnica que tenha por objetivo assegurar o fornecimento do serviço solicitado, como, por exemplo, a conhecida técnica de blocos de recuperação. Reflexão Computacional é a capacidade que um sistema tem de fazer computações para se auto analisar. Ela é obtida quando o programa pára sua execução por um período de tempo para fazer computações sobre si próprio; analisa seu estado, se o processamento está correto, se pode prosseguir com a execução e atingir o objetivo satisfatoriamente; se não precisa mudar de estratégia ou algoritmo de execução, fazendo, ainda, processamentos necessários para o sucesso da execução. Um sistema de programação distribuída consiste basicamente em vários aplicativos executados em diferentes computadores, os quais realizam troca de mensagens para solucionar um problema comum. A comunicação entre os computadores é realizada através da rede que os interliga. As Redes que controlam sistemas críticos são normalmente de pequena escala pois redes de grandes dimensões podem apresentar atrasos e baixa confiabilidade. Portanto, a abordagem aqui proposta consiste em utilizar, em um ambiente distribuído, uma arquitetura reflexiva aliada a técnicas do domínio da tolerância a falhas para promover a separação entre as atividades de controle, salvamento, recuperação, distribuição e validação de componentes e as funcionalidades executadas pelo próprio componente, a fim de que falhas não venham a prejudicar a disponibilidade, confiabilidade e clareza de determinadas computações. A proposta apóia-se num estudo de caso, implementado na linguagem de programação Java, com seus protocolos de reflexão computacional e de comunicação.
Resumo:
A modelagem e desenvolvimento de sistemas embarcados ("embedded systems") de forma distribuída, tende a ser uma tarefa extremamente complexa, especialmente quando envolve sistemas heterogêneos e sincronização de tarefas. Com a utilização do modelo de componentes de software é possível descrever, de uma forma simplificada, todos os elementos de distribuição e de comunicação para este tipo de sistemas. Neste sentido, a especificação de uma ferramenta capaz de auxiliar na modelagem e no desenvolvimento deste tipo de aplicação, certamente irá tornar o trabalho mais simples. Esta dissertação inicia por uma análise comparativa entre as tecnologias passíveis de serem utilizadas na definição de sistemas distribuídos heterogêneos, focando-se principalmente nas metodologias de modelagem, e nos mecanismos e middlewares de comunicação. Dos conceitos formados a partir desta análise é descrita uma ferramenta, baseada em componentes de software. A ferramenta é uma extensão do projeto SIMOO-RT, onde foram adicionados os conceitos de componente de software, biblioteca de componentes e diagrama de implantação. Além disso, foram realizadas modificações no sistema de geração de código, para dar suporte aos novos conceitos da ferramenta. A dissertação termina com a descrição de alguns estudos de caso utilizados para validar a ferramenta.
Resumo:
O Modelo Temporal de Versões (TVM Vesions Model) foi proposto com base na união de um modelo de versões com informações temporais. Esse modelo permite o armazenamento de alternativas de projeto, o armazenamento da história dos dados em evolução, bem cmoo a reconstrução do estado da base em qualquer data passada, sem o uso de operações complexas de backup e recovery. Para realizar consultas nesse modelo foi definida uma linguagem de consulta, a TVQL (Temporal Versioned Query Language). Além das consultas básicas realizadas pela linguagem padrão AQL, a TVQL permite novas consultas que retornam valores específicos das características de tempo e versões, estabelecendo um comportamento o mais homogêneo possível para elementos normais e temporais vesionados. O objetivo principal deste trabalho e possibilitar a realização de consultas TVQL em um banco de dados convencional. Nesse contexto, o mapeamento da TVQL é implementando através da tradução de todas as propriedades e funções definidas na TVQL para SQL. Para que isso seja possível é necessário queos dados também estejam nesse banco de dados. Então, faz-se necessário o mapeamento das classes da hierarquia do TVM, bem como das classes da aplciação, para o banco de dados. Adicionalmente, é implementado um protótipo de uma interface de consultas realizadas em TVQL, para testar o funcionamento tanto da TVL como do seu mapeamento.
Resumo:
O processo de desenvolvimento de software implica na necessidade constante de tomadas de decisão. A cada etapa do processo, torna-se necessário estabelecer a comunicação e interação entre usuários, gerentes, analistas, programadores e mantenedores numa constante troca de informações. O registro dos artefatos produzidos durante todo o processo é uma questão que norteia as pesquisas em ambiente de desenvolvimento de software. Quando se fala em suporte ao processo de colaboração entre os elementos de uma equipe de desenvolvimento, este registro torna-se ainda mais necessário. Neste contexto, a modelagem dos dados a serem armazenados se amplia para comportar outras informações provenientes da interação do grupo além dos artefatos gerados. As informações trocadas durante este processo interativo que incluem fatos, hipóteses, restrições, decisões e suas razões, o significado de conceitos e, os documentos formais formam o que é denominado pela literatura especializada como memória de grupo. A proposta da arquitetura SaDg PROSOFT visa fornecer suporte a memória de grupo, no que diz respeito ao registro das justificativas de projeto(Design Rationale), através de uma integração com o gerenciador de processos (GP) provido pelo ADS PROSOFT. Esta integração se dá através das ferramentas inseridas no modelo, assim desenhadas: Editor de Norma, Editor de Argumentação, Extrator de Alternativas, Editor de Votação. O ADS PROSOFT integra ferramentas para desenvolvimento de software. Este ADS foi escolhido para o desenvolvimento do modelo SADG, pois baseia-se na construção formal de software, mas particularmente no método algébrico, por ser um ambiente estendível, possibilitando a inclusão do modelo SaDg PROSOFT ao seu conjunto de ferramentas, por ter características de um ambiente distribuído e cooperativo e por não dispor de nenhum suporte à discussões e decisões em grupos. São apresentados os fundamentos de modelos SADG e algumas ferramentas. Alguns dos principais requisitos desses ambientes foram coletados e são apresentados a fim de embasar a proposta do trabalho. O modelo SADG é apresentado na forma de ferramentas PROSOFT(chamadas ATOs) e permite a definição de atividades como: Atividade de argumentação, atividade de extração e a atividade de votação. Além disso, permite a coordenação destas atividades através de um facilitador e do próprio GP, e também, possui um mecanismo para a configuração do processo decisório.
Resumo:
Esta dissertação, após a apresentação de uma revisão bibliográfica sobre aprendizado organizacional e gestão do conhecimento, aborda a questão do mapeamento, identificação e disseminação do conhecimento numa área operacional de uma empresa prestadora de serviços de telecomunicações. Baseado nos princípios da gestão do conhecimento, é descrito como foi realizado um levantamento dos postos de trabalho, seguido do mapeamento do conhecimento existente, identificação das necessidades e disseminação do conhecimento entre os indivíduos integrantes da área operacional. A disseminação do conhecimento ocorreu dentro dos respectivos postos de trabalho, tendo como objetivos aumentar a capacitação de todos os empregados e reduzir o risco de perda do conhecimento por "tum-over". A maior capacitação dos funcionários permite a melhoria da qualidade do serviço prestado e a redução dos tempos de recuperação dos serviços. A partir dos estudos realizados, criou-se um modelo para a implantação da gestão do conhecimento, o qual está organizado em três etapas principais: identificação, mapeamento e disseminação. O modelo proposto possibilita aplicar os conceitos de gestão do conhecimento de uma forma prática, utilizando os recursos disponíveis na própria empresa. O uso do modelo proposto pode auxiliar a manter as equipes capacitadas para o pleno desempenho de suas atividades.