12 resultados para Memoria operacional

em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho discute a aplicação de modelos de Pesquisa Operacional como base para o gerenciamento de operações e análise de tecnologias em empresa de transporte de carga. Inicialmente, busca-se contextualizar o escopo deste trabalho dentro do ambiente competitivo atual a fim de que sejam percebidas as conexões entre os sistemas de operações vigentes e os modelos apresentados. Também é feita uma discussão preliminar do conceito de logística, visto que este enseja uma série de acepções para o termo. Em seguida é apresentada uma revisão de algumas ferramentas de modelagem que usualmente são aplicadas a problemas de suprimento, distribuição e transbordo de produtos. Com base nesta revisão é proposta uma abordagem hierarquizada para o tratamento de problemas de logística. Um estudo de caso realizado em uma empresa de transporte de carga busca então aplicar algumas ferramentas de Pesquisa Operacional nos diversos níveis de gerenciamento de operações. Por fim, o trabalho verifica as potencialidades do uso de uma abordagem hierarquizada e a importância da adoção de modelos em empresas de transporte de carga como forma de alavancagem da sua competividade frente as novas exigências do mercado.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação, após a apresentação de uma revisão bibliográfica sobre aprendizado organizacional e gestão do conhecimento, aborda a questão do mapeamento, identificação e disseminação do conhecimento numa área operacional de uma empresa prestadora de serviços de telecomunicações. Baseado nos princípios da gestão do conhecimento, é descrito como foi realizado um levantamento dos postos de trabalho, seguido do mapeamento do conhecimento existente, identificação das necessidades e disseminação do conhecimento entre os indivíduos integrantes da área operacional. A disseminação do conhecimento ocorreu dentro dos respectivos postos de trabalho, tendo como objetivos aumentar a capacitação de todos os empregados e reduzir o risco de perda do conhecimento por "tum-over". A maior capacitação dos funcionários permite a melhoria da qualidade do serviço prestado e a redução dos tempos de recuperação dos serviços. A partir dos estudos realizados, criou-se um modelo para a implantação da gestão do conhecimento, o qual está organizado em três etapas principais: identificação, mapeamento e disseminação. O modelo proposto possibilita aplicar os conceitos de gestão do conhecimento de uma forma prática, utilizando os recursos disponíveis na própria empresa. O uso do modelo proposto pode auxiliar a manter as equipes capacitadas para o pleno desempenho de suas atividades.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Alinhamento estratégico, aliado ao planejamento estratégico, é um importante instrumento de gestão. Por isso, novas abordagens para a operacionalização do alinhamento durante todas as etapas do processo de planejamento podem auxiliar o gerenciamento de topo em suas decisões e influir no desempenho organizacional. O objetivo deste estudo, de natureza exploratória, é conceber e desenvolver um modelo operacional de alinhamento estratégico para uso durante a etapa de implementação dos itens planejados, promovendo o ajuste contínuo entre as necessidades de negócio através do devido suporte da Tecnologia da Informação (TI), tendo por base a análise das contribuições dos estudos sobre metodologia de implementação de planos estratégicos. Os principais resultados encontrados mostram que as empresas estudadas estão promovendo o alinhamento estratégico entre negócios e TI com maior ou menor intensidade, mesmo que, em algumas etapas do processo de planejamento, isto seja realizado de forma empírica. Os resultados apontaram os elementos de alinhamento “metodologia” e “instrumentação da gestão” como principais promotores de alinhamento durante a etapa de implementação do processo de planejamento, responsáveis por grande parte do comprometimento dos participantes do processo e pelo atingimento das metas planejadas. A metodologia de acompanhamento da execução dos itens planejados consiste em reuniões freqüentes de alinhamento dos itens de negócio e de TI, para sincronização dos recursos e controle do atingimento das metas e objetivos, mantendo o foco dos objetivos de longo prazo. A operacionalidade da promoção do alinhamento depende da instrumentação dos executivos (CEO e CIO) com o apropriado conjunto informacional representativo do modelo de negócio e de gestão estratégica para acompanhamento da execução dos itens planejados e promoção dos ajustes necessários em tempo real.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A cada ano, mais de 500.000 pessoas vêm a falecer em acidentes de trânsito no mundo. No Brasil, estima-se entre 30.000 e 50.000 mortos no mesmo período. A velocidade elevada é considerada como um dos principais fatores determinantes dos acidentes e da gravidade dos mesmos. O presente trabalho desenvolve uma análise da consistência geométrica de rodovias de pistas simples no Estado do Rio Grande do Sul, através da elaboração de modelos de previsão da velocidade operacional, em duas etapas distintas. Na primeira etapa, a partir da coleta de dados de velocidades pontuais e de elementos geométricos da rodovia, é elaborado um modelo que permite prever o comportamento do condutor, quanto à velocidade que emprega em seu veículo segundo diferentes condicionantes geométricas. Na segunda etapa, o modelo proposto é aplicado sobre diferentes segmentos viários de rodovias de pista simples do Estado do Rio Grande do Sul, para obtenção das velocidades operacionais previstas e os resultados comparados entre si e com as velocidades de projeto e a velocidade regulamentada. A análise dos resultados para obtenção do modelo conclui como única variável significativa para a elaboração do mesmo, entre as diversas analisadas, o raio planimétrico. Já a análise da consistência geométrica das rodovias, através da aplicação do modelo proposto, indicou que estas apresentam projetos geométricos classificados como bons quanto a sua fluidez, mas classificados como fracos quanto ao dimensionamento dos elementos geométricos de segurança (superelevação, superlargura e distâncias de visibilidade) em decorrência de diferenças superiores a 20 km/h entre a velocidade operacional e a velocidade de projeto. Por fim, observa que as rodovias projetadascom velocidadediretriz de 60 km/h ou inferior são as que apresentam os piores resultados na análise da consistência geométrica e que o condutor brasileiro (observado na elaboração do modelo) não pode ser considerado um velocista, mas sim, um condutor mais "ousado", em situações adversas, se comparado a condutores de outros países, em especial, dos Estados Unidos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Diante do novo cenário internacional globalizado e competitivo, as montadoras têm desenvolvido novas configurações de cadeias de suprimentos e estratégias operacionais, buscando atender às exigências da atual cadeia de valores deste segmento industrial. O objetivo do presente estudo é analisar a estratégia operacional e a cadeia de suprimentos de uma das novas montadoras que se instalou no Brasil, examinando prioritariamente como está definida e o porquê está assim definida. Para que o objetivo fosse atingido, foi estudada sua organização industrial, pois se percebeu que uma cadeia de suprimentos deve estar suportada por uma operação. O estudo realizado evidenciou que a montadora utiliza as melhores práticas operacionais desenvolvidas, porém no contexto local. Ela apresenta dimensões operacionais que vão do fordismo ao lean production, existindo dimensões que podem em um momento assumir uma característica puramente fordista e em outro momento apresentar características lean, sistema operacional baseado na flexibilidade. A cadeia de suprimentos da montadora em questão também se baseia nas melhores práticas de suprimentos. Ela não inova na questão dos modelos. Sua escolha é bastante conservadora, pois segmentou sua cadeia de suprimentos em três diferentes estratégias: outsourcing, just-in-time e gestão de estoques. Talvez aí esteja sua inovação, apresentar flexibilidade de implementar a melhor prática para o contexto econômico e social que encontrou no país. Como conclusão do estudo, foi possível determinar exatamente quais variáveis definem sua cadeia de suprimentos. Uma metodologia flexível, estruturada e consistente guia essa montadora em suas decisões operacionais estratégicas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A simulação paralela de eventos é uma área da computação que congrega grande volume de pesquisas, pela importância em facilitar o estudo de novas soluções nas mais diferentes áreas da ciência e tecnologia, sem a necessidade da construção de onerosos protótipos. Diversos protocolos de simulação paralela podem ser encontrados, divididos em dois grandes grupos de acordo com o algoritmo empregado para a execução em ordem dos eventos: os conservadores e os otimistas; contudo, ambos os grupos utilizam trocas de mensagens para a sincronização e comunicação. Neste trabalho, foi desenvolvido um novo protocolo de simulação paralela, fazendo uso de memória compartilhada, o qual foi implementado e testado sobre um ambiente de estações de trabalho, realizando, assim, simulação paralela com uso de memória compartilhada distribuída. O protocolo foi desenvolvido tendo como base de funcionamento os protocolos conservadores; utilizou diversas características dos mesmos, mas introduziu várias mudanças em seu funcionamento. Sua execução assemelha-se às dos protocolos de execução síncrona, utilizando conceitos como o lookahead e janelas de tempo para execução de eventos. A principal mudança que o novo protocolo sofreu foi proporcionada pelo acesso remoto à memória de um LP por outro, produzindo diversas outras nas funções relativas à sincronização dos processos, como o avanço local da simulação e o agendamento de novos eventos oriundos de outro LP. Um ganho adicional obtido foi a fácil resolução do deadlock, um dos grandes problemas dos protocolos conservadores de simulação paralela. A construção de uma interface de comunicação eficiente com uso de memória compartilhada é o principal enfoque do protocolo, sendo, ao final da execução de uma simulação, disponibilizado o tempo de simulação e o tempo de processamento ocioso (quantia utilizada em comunicação e sincronização). Além de uma implementação facilitada, propiciada pelo uso de memória compartilhada ao invés de trocas de mensagens, o protocolo oferece a possibilidade de melhor ocupar o tempo ocioso dos processadores, originado por esperas cada vez que um LP chega a uma barreira de sincronização. Em nenhum momento as modificações efetuadas infringiram o princípio operacional dos protocolos conservadores, que é não possibilitar a ocorrência de erros de causalidade local. O novo protocolo de simulação foi implementado e testado sobre um ambiente multicomputador de memória distribuída, e seus resultados foram comparados com dois outros simuladores, os quais adotaram as mesmas estratégias, com idênticas ferramentas e testados em um mesmo ambiente de execução. Um simulador implementado não utilizou paralelismo, tendo seus resultados sido utilizados como base para medir o speedup e a eficiência do novo protocolo. O outro simulador implementado utilizou um protocolo conservador tradicional, descrito na literatura, realizando as funções de comunicação e sincronização através de trocas de mensagens; serviu para uma comparação direta do desempenho do novo protocolo proposto, cujos resultados foram comparados e analisados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O trabalho propõe uma definição teórica e operacional para o construto cultura de devoção em empresas familiares e visionárias. Trata-se de uma tentativa de compreender e explicar a dinâmica que envolve a formação de vínculos afetivos entre empregados e organizações do tipo familiares e visionárias. Presume-se que empresa familiar visionária seja toda aquela organização que tem sua origem e história vinculadas a uma família ou grupo familiar e está alicerçada em valores essenciais formulados por seus fundadores. Além do mais, a empresa é líder em seu setor de atuação, passou por vários ciclos de produtos ou serviços e, se não consolidou, pelo menos deu início ao processo sucessório. O trabalho recupera a ideologia básica - valores e objetivos essenciais - que se mantém em todas as fases de desenvolvimento da organização, levando em consideração a declaração desta ideologia, sua continuidade histórica e a coerência entre aquilo que é declarado como essencial e o que é vivido no cotidiano da organização. A maneira como os empregados se apropriam dos valores difundidos decorre de um estruturado sistema de comunicação, de uma consistente política de recursos humanos e de uma adequada administração dos elementos formadores da cultura organizacional. Através de pesquisa empírica com três empresas de um mesmo grupo familiar, observou-se que a identificação dos empregados com os valores organizacionais pode ser explicada pela forma como os empregados se apropriam dos valores difundidos, pelo modo de circulação e consumo dos valores organizacionais, pela política de recursos humanos que reforça o desenvolvimento pessoal interno e pelos elementos simbólicos da cultura organizacional que fortalece o imaginário coletivo e solidifica as significações acerca da idéia de empresa como uma grande família.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta pesquisa tem como objetivo analisar o impacto das fusões e aquisições no desempenho operacional dos bancos comerciais e múltiplos que operam no mercado brasileiro no período compreendido entre 1996 e 2000. Foram examinadas as mudanças na performance de uma amostra de trinta e três bancos envolvidos nestes processos. Para isto foram calculados dezenove indicadores pertencentes às seguintes categorias: retorno para os acionistas, eficiência operacional e qualidade da gerência. A seguir, foram aplicados dois tipos de testes. O teste de séries com sinal de Wilcoxon permitiu provar a significância das mudanças percentuais dos indicadores . O teste foi utilizado para avaliar as seguintes diferenças: dos indicadores de bancos - alvo e dominantes antes das fusões, dos indicadores dos bancos participantes de aquisições para um ano anterior e posterior à compra e dos indicadores dos bancos constituintes das incorporações para um ano antes e depois do acontecimento. O teste t para amostras emparelhadas foi aplicado para avaliar as diferenças nos indicadores de bancos fundidos contra bancos não fundidos durante todo o período de estudo. Foi possível verificar que os processos de aquisição e fusão não resultaram em ganhos significativos na eficiência operacional, quando a eficiência é medida por relações de despesas. Observa-se que estas proporções são maiores nos bancos fundidos, o que mostra uma desvantagem, em termos de eficiência, dos bancos fundidos em comparação com os outros bancos. Para as aquisições observou-se uma melhora nos indicadores de rentabilidade e qualidade da gerência, após a compra. Porém, em comparação com o grupo de controle estes indicadores foram inferiores na maioria dos anos. Por sua vez, as incorporações apresentaram uma diminuição nestes indicadores, mas esta redução não foi significativa. Poder-se-ia inferir que os bancos não fundidos reportaram maiores margens de lucro para os acionistas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho trata da técnica de validação experimental de protocolos de comunicação confiável, através da injeção de falhas de comunicação. São estudadas inicialmente as técnicas de injeção de falhas, por hardware, software e simulação, e então são aprofundados os conceitos de injeção de falhas de comunicação, modelos de falha e especificação de experimentos de injeção de falhas. Em um segundo momento, são estudadas as formas de implementação de injetores de falhas em software, em suas duas formas mais comuns: no nível da aplicação e no nível do sistema operacional. São comentados os impactos da implementação de injetores no código da aplicação, por processos concorrentes à aplicação, em código utilizado pela aplicação e no meta-nível. Por fim, são estudados também que influências sofre a implementação de um injetor de falhas em um sistema operacional, e mais especificamente a de injetores de falhas de comunicação. O objetivo específico deste trabalho é implementar um injetor de falhas de comunicação bastante abrangente e flexível, situado dentro do núcleo do Sistema Operacional Linux. Para viabilizar esta implementação foi estudada também a arquitetura do Sistema Operacional Linux, sua decomposição em subsistemas e a interação entre estes. Foram estudadas também as várias técnicas de programação e mecanismos que o Sistema Operacional Linux fornece aos seus subsistemas. Estando completas a revisão bibliográfica a respeito de injeção de falhas e o estudo do código do Sistema Operacional Linux, são apresentadas a proposta e a implementação da ferramenta ComFIRM—Communication Fault Injection through Operating System Resource Modification, suas características e sua inserção dentro do núcleo do Sistema Operacional Linux. Finalizando este trabalho, são apresentados uma pequena série de testes de funcionamento e experimentos realizados com a ferramenta ComFIRM, visando demonstrar a correção de seu funcionamento, o cumprimento de seus objetivos e também sua praticidade e flexibilidade de uso. São apresentadas as conclusões deste trabalho, propostas de melhorias à ferramenta apresentada, bem como possibilidades de trabalhos futuros.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O reator seqüencial em batelada (RSB) é uma variante de lodos ativados capaz de promover a remoção da matéria orgânica, a remoção dos nutrientes e a separação da fase sólida da líquida em uma unidade. A valorização das áreas urbanas, a carência de tratamento terciário e a crescente necessidade de redução nas dimensões de estações de tratamento de esgoto devem impulsionar o desenvolvimento de pesquisas sobre RSB em curto espaço de tempo. A partir deste cenário, o presente trabalho teve como objetivo modelar o comportamento do reator seqüencial em batelada a partir da teoria desenvolvida por Marais e colaboradores. Dentro deste contexto, a cinética de oxidação dos compostos orgânicos e do nitrogênio na forma amoniacal foi descrita e modelada. O trabalho experimental foi realizado em duas escalas: bancada e piloto. O experimento em escala de bancada foi dividido em duas fases. Foram utilizados dois RSBs e um sistema de fluxo contínuo. Um reator seqüencial em batelada (RSB1) foi operado com idade de lodo. O outro reator em batelada (RSB2) foi operado em função da relação F/M e o sistema de fluxo contínuo (FC1) por idade de lodo. Estes reatores foram utilizados como controle no monitoramento do RSB1 Na primeira fase, os três sistemas removeram apenas matéria orgânica. Na fase seguinte, removeram matéria orgânica e nitrogênio. A partir dos resultados obtidos em escala de bancada, foi possível concluir que o modelo desenvolvido pode ser aplicado ao reator seqüencial em batelada operando com idade de lodo, permitindo determinar a qualidade do efluente, a produção de lodo e o consumo de oxidante. Além disso, foi possível descrever o comportamento da taxa de consumo de oxigênio em função da oxidação da matéria orgânica biodegradável e da oxidação do nitrogênio na forma amoniacal. O reator seqüencial em batelada operado com idade de lodo (RSB1) alcançou remoção média de matéria orgânica de 90 % nas idades de lodo de 30, 20, 10 e 5 dias. A remoção média de nitrogênio mais elevada foi obtida na idade de lodo de 20 dias e atingiu 87 %. Nas demais idades de lodo a remoção média de nitrogênio variou entre 79 e 42 %. A modelagem do comportamento do reator seqüencial em batelada resultou numa proposta de metodologia para o dimensionamento que tem como finalidade abolir critérios obsoletos e inadequados para o dimensionamento de lodos ativados em batelada No experimento em escala piloto, foram utilizados um reator seqüencial em batelada, denominado RSB, e um sistema de fluxo contínuo com a configuração Bardenpho, denominado FC. Os sistemas de lodos ativados sob investigação foram monitorados em duas idades de lodo: 30 e 10 dias. Os dados do experimento em escala piloto mostraram que os processos físico-químicos e biológicos envolvidos na remoção de matéria orgânica e nitrogênio no RSB foram mais eficientes do que no Bardenpho quando trataram o mesmo esgoto doméstico e foram submetidos às mesmas condições operacionais. No RSB, obteve-se 88 e 89 % de remoção de matéria orgânica nas idades de lodo de 10 e 30 dias, respectivamente. Nesta seqüência das idades de lodo, a eficiência do Bardenpho caiu de 87 para 76 %. O sistema de fluxo contínuo removeu 66 e 52 % do nitrogênio total afluente nas idades de lodo de 10 e 30 dias, respectivamente. A eficiência do RSB na remoção de nitrogênio foi determinada apenas na idade de lodo de 10 dias e alcançou 69 %. A partir dos resultados obtidos em escala de bancada e piloto, constata-se que o reator seqüencial em batelada operando com idade de lodo pode ser utilizado no tratamento de esgoto doméstico e obter eficiência na remoção de matéria orgânica e nitrogênio igual ou superior ao sistema de fluxo contínuo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os sistemas operacionais de tempo real, assim como os sistemas embarcados, estão inseridos no desenvolvimento de projetos de automação industrial segmentado em diversas áreas de pesquisa como, por exemplo, robótica, telecomunicações, e barramentos industriais. As aplicações de sistemas modernos de controle e automação necessitam de alta confiabilidade, velocidade de comunicação, além de, determinismo temporal. Sistemas operacionais de tempo real (SOTR) têm-se apresentado como uma solução confiável quando aplicadas em sistemas que se fundamentam no cumprimento de requisitos temporais. Além disso, o desempenho computacional é totalmente dependente da capacidade operacional da unidade de processamento. Em um sistema monoprocessado, parte da capacidade computacional da unidade de processamento é utilizada em atividades administrativas, como por exemplo, processos de chaveamento e salvamento de contexto. Em decorrência disto, surge a sobrecarga computacional como fator preponderante para o desempenho do sistema. Este trabalho tem por objetivo, analisar e fornecer uma arquitetura alternativa para realizar o co-processamento de tarefas em uma plataforma IBM-PC, aumentando a capacidade computacional do microprocessador principal. No presente trabalho, a plataforma de coprocessamento realiza a execução do algoritmo de escalonamento do sistema operacional, desta forma distribuiu-se o gerenciamento temporal das tarefas entre a plataforma IBM-PC e a unidade de co-processamento.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Alta disponibilidade (muitas vezes referenciada como HA, de High Availability) é uma característica de sistemas computacionais que são projetados para evitar ao máximo as interrupções, planejadas ou não, na prestação de serviços. Em alta disponibilidade, o ideal é haver poucas falhas e, mesmo quando estas acontecerem, que o seu tempo médio de reparo (ou MTTR, de Mean Time To Repair) seja tão pequeno quanto possível. Sistemas operacionais têm um papel importante em alta disponibilidade, sendo preferível o uso daqueles que possuam sistemas de arquivos seguros e relativamente independentes de ações por agentes humanos para a recuperação. Uma das abordagens para auxiliar a obter-se uma alta disponibilidade em sistemas de arquivos é a do tipo journaling, ou meta-data logging. Existe uma série de sistemas de arquivos para o sistema operacional Linux baseando-se nela, tais como ext3, JFS, ReiserFS e XFS. Este trabalho tem por objetivo propor uma metodologia de validação experimental para avaliar a eficiência do mecanismo para recuperação de sistemas de arquivos baseados em journaling, na ocorrência de falhas. Para isso, a técnica de validação empregada é a da injeção de falhas e o sistema sob teste é uma implementação do XFS. Foram utilizados os recursos de depuração do sistema operacional Linux (que permitem a utilização de métodos para interceptação e manipulação de chamadas de sistema) para a implementação de um injetor de falhas específico para sistemas de arquivos baseados em journaling, o qual foi chamado de FIJI (Fault Injector for Journaling fIlesystems). Manipular os parâmetros de chamadas de sistema (ou system calls) através do FIJI equivale a alterar as requisições feitas ao sistema operacional. A eficiência do mecanismo de journaling é medida injetando-se falhas e medindose o MTTR e a cobertura de falhas. Basicamente, o que procura-se fazer através do injetor de falhas FIJI é ignorar os logs do journaling e manipular uma quantidade de informações diferente daquela que foi solicitada originalmente.