943 resultados para Gerenciamento de processos
Resumo:
Este trabalho tem como objetivo verificar o comportamento mecânico e físico de pozolanas artifíciais estabilizadas química e granulometricamente, curadas por dois processos de cura denominados de : autoclave(ATC), que utiliza temperaturas na faixa de 149 a 188°C e câmara à temperatura constante(CTC) que utiliza uma temperatura de ± 21°C. Também fez-se análises estatísticas com a finalidade de se determinar o efeito da energia de moldagem, temperatura e tempo de cura sobre os resultados dos ensaios, para cada processo de cura, além de se determinar modelos matemáticos para previsão de resultados de resistência através de regressões múltiplas e simples. As pozolanas artificiais empregadas foram as cinzas volante e pesada da Usina de Candiota, as quais foram estabilizadas com cal dolomítica hidratada e areia do Rio Guaíba. Os ensaios de resistência à compressão simples , absorção e perda de massa basearam-se nas normas da ABNT e DNER e para os estudos de análise estatística, fez-se anteriormente aos ensaios, dois planejamentos experimentais denominados de Split-Splot e Quadrado Latino, que foram utilizados nos processos de autoclavagem e câmara à temperatura constante, representativamente. Os Corpos-de-Prova curados na câmara à temperatura constante, até os 28 dias de cura, apresentaram resultados de resistências inferiores aqueles curados pelo processo de autoclave. Aos 60 dias de cura suas resistências ficaram na faixa dos valores de Corpos-de-Provas curados pela autoclave nas temperaturas de 149 a 188°C, excessão feita na mistura utilizando areia, onde em todos os períodos de cura estudados,os valores de resistência dos Corpos-de-Prova curados pelo câmara à temperatura constante foram inferiores. A proporção da quantidade de cal e cinza na mistura, bem como o valor da superfície específica da cinza influenciam nos resultados de ensaios, independentemente da variação dos fatores principais. Em termos de análise estatística verificou-se que a energia de moldagem e o tempo de cura são os fatores que apresentam os maiores efeitos sobre os resultados da resistência, para os processos de cura ATC e CTC, respectivamente.
Resumo:
Esta dissertação aborda o controle e garantia da qualidade no processo de manufatura de óleo de arroz, através do monitoramento estatístico de variáveis de processo e produto, com vistas a atingir padrões de excelência no processo produtivo e na satisfação dos clientes. O Controle Estatístico de Processos (CEP) fornece uma descrição detalhada do comportamento do processo, identificando sua variabilidade e possibilitando controlar esta ao longo do tempo. O CEP utiliza cartas de controle de processo, auxiliando na identificação de causas comuns e especiais de variação. A dissertação apresenta uma revisão detalhada da literatura abordando dois temas principais: (i) controle dos processos de manufatura do óleo de arroz (ii) implantação do controle estatístico de processos. Após priorização das características de qualidade a serem monitoradas no processo e treinamento do pessoal, apresenta-se a implantação efetiva do controle estatístico no processo de manufatura de óleo de arroz, através das seguintes etapas: (i) Definição do projeto, (ii) Planejamento da implantação, (iii) Treinamento em controle estatístico de processos, (iv) Implantação efetiva e (v) Acompanhamento e consolidação. Através dos dados coletados ao longo da implantação, são apresentadas conclusões, comparando a estabilidade e capacidade dos processos das diversas características de qualidade monitoradas, antes e depois da implantação do controle estatístico de processos. Assim, verificou-se com a implantação do CEP nos postos 1 (preparação) e 2 (extração) foram obtidas melhorias e no posto 3 (refinaria) devido a falta de automatização dos processos, estes foram menos beneficiados.
Resumo:
Este trabalho discute a aplicação de modelos de Pesquisa Operacional como base para o gerenciamento de operações e análise de tecnologias em empresa de transporte de carga. Inicialmente, busca-se contextualizar o escopo deste trabalho dentro do ambiente competitivo atual a fim de que sejam percebidas as conexões entre os sistemas de operações vigentes e os modelos apresentados. Também é feita uma discussão preliminar do conceito de logística, visto que este enseja uma série de acepções para o termo. Em seguida é apresentada uma revisão de algumas ferramentas de modelagem que usualmente são aplicadas a problemas de suprimento, distribuição e transbordo de produtos. Com base nesta revisão é proposta uma abordagem hierarquizada para o tratamento de problemas de logística. Um estudo de caso realizado em uma empresa de transporte de carga busca então aplicar algumas ferramentas de Pesquisa Operacional nos diversos níveis de gerenciamento de operações. Por fim, o trabalho verifica as potencialidades do uso de uma abordagem hierarquizada e a importância da adoção de modelos em empresas de transporte de carga como forma de alavancagem da sua competividade frente as novas exigências do mercado.
Resumo:
Através da utilização de sistemas de controle informatizados, indústrias buscam uma caracterização mais completa de seus processos, gerando, freqüentemente, um grande volume de dados acerca de inúmeras variáveis de desempenho dos processos. Entretanto essa grande massa de dados é subaproveitada, visto que as cartas de controle multivariadas tradicionais, tais como as cartas de Hotelling, MCUSUM e MEWMA não são suficientemente robustas para tratar com um grande número de variáveis correlacionadas, pois foram concebidas para monitorar um número reduzido de variáveis de qualidade do produto final. Diante disso, ferramentas multivariadas mais robustas, que incorporam essas informações, vêm sendo desenvolvidas; dentre estas, destaca-se a Multiway Principal Component Analysis (Análise de Componentes Principais Multidirecionais; ACPM). Neste trabalho, apresenta-se a base teórica para a elaboração de uma carta de controle a partir da estratégia ACPM, para monitoramento on-line de processos em bateladas. Nesses processos, aferições freqüentes de variáveis de processo são disponibilizadas durante a realização de cada batelada. As cartas de controle baseadas em ACPM permitem o tratamento de variáveis autocorrelacionadas, com médias que descrevem trajetórias não lineares se observadas em momentos seqüenciados no tempo. Tais variáveis aparecem com freqüência em processos por bateladas. Uma aplicação das cartas de controle baseadas em ACPM em um sub-processo de produção de borracha para cobertura de pneus ilustra a utilização da ferramenta.
Resumo:
As cartas de controle estatístico têm sido amplamente utilizadas no monitoramento do desempenho de processos. Com a crescente informatização dos processos industriais, tem-se verificado um aumento sensível na quantidade de informações disponíveis sobre variáveis de processo. Via de regra, essas variáveis apresentam-se fortemente correlacionadas. Em casos especiais, como nos processos em batelada, tais variáveis descrevem um perfil de variação ao longo do tempo, caracterizando o comportamento normal do processo. Nessas condições especiais, as cartas de controle tradicionais não proporcionam um monitoramento eficaz sobre o processo. Esta dissertação de mestrado apresenta uma alternativa para o monitoramento on line de processos em bateladas: a proposição de uma metodologia para implantação de cartas de controle multivariadas baseadas em componentes principais. A idéia central dessas cartas é monitorar simultaneamente diversas variáveis, controlando somente algumas poucas combinações lineares independentes delas; tais combinações são denominadas componentes principais. O presente trabalho ilustra a metodologia proposta em um estudo de caso realizado na etapa de fermentação do processo de fabricação de cerveja de uma indústria de bebidas, localizada na região metropolitana de Porto Alegre.
Resumo:
As empresas rompem seus paradigmas porque a competitividade as obriga a isso em função do mundo globalizado, no qual estão inseridas hoje. Para uma empresa que vive nesse contexto, a tecnologia da informação é uma ferramenta auxiliar no processo de gerenciamento e tratamento das mesmas. Os Sistemas Gerenciais de Gestão Empresarial (ERP's) estão ajudando a suprir as carências demandadas pelas empresas no sentido de fazerem frente ao contexto atual. Mesmo assim, com tecnologias a ajudá- las, são as pessoas (gestores e equipe), as implementadoras desses sistemas. Tais sistemas em função da velocidade de implantação, fazem com que os gestores sofram demasiado peso de responsabilidades, pois não são suficientemente preparados para serem "coachs", ou seja, ensinarem sua equipe e participarem com a mesma, dos processos de transformações. Além disso, sofrem todos em função de que as atividades diárias da empresa não param diante de tais trans formações, gerando ao mesmo tempo dificuldades e embates naturais para serem administrados. Neste contexto a influência do gestor na mudança, competência que interessa neste estudo, é peça importante para a condução desse processo. Os objetivos que permearam esta pesquisa se baseiam na questão de como os gestores podem influenciar no nível de participação das pessoas num processo de mudança. No caso abordado, observa-se que em função dos problemas relatados na empresa em estudo, houve má condução na impleme ntação, causada pelo nível de envolvimento apresentado pelas pessoas não ter sido o suficiente. Para o levantamento dos dados utilizou-se fonte múltipla de coleta como observação participante, questionário, registros em arquivos e documentos. A análise foi efetuada com base nos dados coletados e no referencial teórico constante neste estudo. O resultado da análise apresentou 10 pontos críticos os quais estão compostos nos seguintes grandes enfoques: processo decisório, condução, desenvolvimento, cronograma do projeto e pessoas na organização. Para estes pontos críticos foram elaboradas sugestões, tais como políticas de envolvimento e comprometimento, visando através destas a construção de um referencial exploratório para futuras ações da organização em estudo.
Resumo:
Este trabalho investiga a aplicação de métodos e técnicas de correlação de alarmes na detecção e diagnóstico de falhas em sistemas supervisionados por computador. Atualmente, alguns centros de supervisão ainda não se utilizam destas técnicas para o tratamento das informações recebidas de suas redes de supervisão, ficando para os operadores a responsabilidade de identificar estas correlações. Com o crescente volume de informações recebidas pelos centros de supervisão, devido ao aumento da heterogeneidade e do número de equipamentos supervisionados, torna a identificação manual da correlação dos alarmes lenta e pouco precisa. Objetivando melhorar a qualidade do serviços prestados pelos centros de supervisões, este trabalho propõe o uso de uma rede Bayesiana como método de correlação de alarmes e uma técnica de limitação de escopo para atingir uma melhor performance na propagação desta correlação. Através dos conceitos desenvolvidos neste trabalho, foi implementado um protótipo de correlação de alarmes para um sistema de supervisão existente no mercado, neste protótipo modela-se a rede Bayesiana em um banco de dados relacional e, como resultado desta implementação apresenta-se a interface desenvolvida para a supervisão.
Resumo:
Ambientes de engenharia apresentam a forte característica da necessidade de cooperação entre projetistas na concepção de projetos CAD, o que provoca uma série de problemas em relação aos ambientes usuais encontrados em aplicações convencionais. Na busca de solucionar tais problemas, vários recursos e mecanismos relativos às gerências de dados e do processo de projeto são apresentados em vários estudos encontrados na literatura. Boa parte desses recursos estão embutidos nesse trabalho, que visa apresentar um sistema gerenciador de documentação técnica para ambientes de engenharia/CAD chamado GerDoc Ábacus. A proposta da construção do GerDoc Ábacus é baseada na busca da solução dos problemas relativos à consistência dos dados de projetos e da integração de tarefas de projetistas que interagem em ambientes distribuídos de projeto. Unindo vários mecanismos, é proposta uma interface totalmente interativa, objetivando manter a harmonia entre projetistas que fazem parte de equipes de projetos que são mantidos em atividade durante longos períodos de tempo, além de documentar todos os passos realizados acerca de cada um desses projetos. Dessa forma, o GerDoc Ábacus é uma ferramenta organizacional e administrativa para projetos de engenharia, sendo de fácil operacionalização, buscando altos níveis de integridade dos dados mantidos.
Resumo:
Esta tese tem como objetivo central investigar o impacto do gerenciamento de reclamações na confiança e lealdade do consumidor, em trocas de serviços relacionais. Para tanto, foi desenvolvido e testado um modelo teórico, que retrata os inter-relacionamentos entre avaliações específicas do processo de reclamação e construtos relacionais. Desta forma, o presente estudo relaciona três importantes correntes de pesquisa - teoria da justiça, gerenciamento de reclamações e estudos sobre confiança. De modo geral, os resultados obtidos através da Modelagem de Equações Estruturais confirmam 10 das 12 hipóteses estabelecidas a partir do modelo teórico proposto. Mais especificamente, os resultados indicam que as percepções de justiça distributiva, interpessoal e processual afetam significativamente a percepção global de justiça e o nível de satisfação do consumidor com o gerenciamento da reclamação. A confiança do consumidor após a reclamação é influenciada diretamente pelo nível de satisfa ção final alcançado e pelas experiências anteriores do consumidor com a empresa. Por fim, o grau de lealdade do consumidor é influenciado pela confiança do consumidor e pelo valor relacional.
Resumo:
O gerenciamento de redes de computadores é uma tarefa complexa de ser realizada porque a redes atualmente possuem muitos equipamentos, protocolos, serviços e usuários. Como regra geral, redes de computadores são heterogêneas e a introdução de facilidades para o fornecimento de qualidade de serviço (QoS) faz com que a gerência de redes se torne ainda mais complexa, e neste cenário as soluções tradicionais de gerenciamento podem falhar. O gerenciamento de redes com QoS vem sendo investigado por diversos grupos, e soluções comerciais para o problema já podem ser encontradas. Entretanto, a gerência de QoS possui aspectos diversos que são investigados separadamente. Do ponto de vista do administrador de redes, soluções pontuais são importantes, mas a integração entre os diversos aspectos de gerência de QoS também é uma necessidade. Tal necessidade, entretanto, não tem encontrado respaldo nas pesquisas desenvolvidas ou nos produtos de gerenciamento disponibilizados no mercado. Nesta situação, o administrador da rede é obrigado a trabalhar ao mesmo tempo com soluções disjuntas que não oferecem integração. Isso acaba por complicar a gerência de QoS, que por si só já é uma atividade complexa. QoS e discutida a necessidade de integração. As soluções existentes e pesquisas desenvolvidas são classificadas para que possam ser mais bem avaliadas em uma visão mais global. A classificação realizada organiza os aspectos de QoS em tarefas de gerência de QoS que devem ser executadas por um administrador de redes que possuam facilidades de QoS. Para que a integração das tarefas de gerência de QoS seja possível, um modelo para gerência integrada de QoS em redes de computadores é proposto. O modelo, definido em camadas, utiliza elementos distribuídos na rede para executar tarefas específicas e um ambiente de gerência central fornece uma interface única de acesso ao sistema de gerência ao administrador da rede. O modelo proposto é analisado de acordo com alguns aspectos (por exemplo, em relação à sua escalabilidade, flexibilidade e exeqüibilidade). Uma implementação do mesmo é apresentada para a gerência de redes baseadas em IP que possuam mecanismos para fornecimento de QoS. A avaliação do modelo mostra, ao final, que a gerência de QoS, além de ser uma necessidade real, é possível de ser executada de forma integrada, como desejam os administradores de rede.
Resumo:
Diversas e velozes mudanças vêm ocorrendo nos últimos anos, e o aumento da competitividade é uma realidade presente no mundo empresarial. O gerente está no seio destes acontecimentos, desempenhando papel muito importante nos processos de inovação e mudança organizacional. Neste cenário, um novo conceito de competências gerenciais passa a ser valorizado. O conceito de competência, inicialmente associado à linguagem jurídica, vem sendo utilizado no mundo organizacional representando um conceito dinâmico, concretizado no desempenho; competência é saber, saber fazer e saber agir. A gestão de competências surge como um tema desafiador, dentro do subsistema de desenvolvimento humano da área de Recursos Humanos. Como um assunto novo e pouco estudado em nosso país, este trabalho apresenta resultados de uma pesquisa realizada em três empresas do Rio Grande do Sul, sobre as noções e processos de desenvolvimento utilizados na gestão de competências gerenciais. A metodologia utilizada foi de natureza qualitativa, através de estudo exploratório-descritivo.
Resumo:
A escritora objeto desta tese, figura proeminente da literatura neozelandesa, voltou-se ao gênero autobiográfico após um longo percurso na área da ficção, para definir-se como uma primeira pessoa, depois de sua vida particular ter sido insistentemente confundida com sua obra por parte da crítica. Uma questão que logo vem à tona é que praticamente toda ficção resulta ser, até um certo grau, fundamentalmente autobiográfica e que a análise crítica da obra de um escritor possibilita o conhecimento de sua vida. Nosso argumento, opondo-se a esse pressuposto, parte da vida para melhor compreender a obra, evidenciando que Janet Frame manteve um grande distanciamento entre os eventos reais e sua ficcionalização, realizando uma tarefa que a coloca lado a lado dos nomes mais ilustres da literatura ocidental do século XX. Numa atitude comparatista, procuramos extrair os diversos processos de transmutação estética realizados pela escritora, buscando sanar algumas distorções que impediram uma análise mais confiável de sua obra, problematizando, entre outros aspectos, a questão do gênero autobiográfico, da mímese e do realismo ficcional. A manipulação artística da vida particular de Janet Frame foi resgatada por um conjunto de processos, entre os quais a antimímese, a poetização do quotidiano, a intertextualidade e a interdiscursividade, que revelam um alcance estético e uma auto-referencialidade deslocada muito além do mero biografismo. Outros aspectos analisados na obra como um todo indicam que novas abordagens da ficção de Janet Frame, a partir de enfoques pós-modernos, pós-coloniais, pós-estruturalistas e feministas podem superar as posturas reducionistas das quais ela foi alvo.
Resumo:
Nos últimos anos a economia mundial e a economia brasileira têm sofrido mudanças importantes. Fusões e aquisições estratégicas têm se multiplicado na busca de estratégias para a competitividade envolvendo a integração de todas as atividades na agregação de valor que seja percebido pelo cliente. No presente trabalho, a adoção do planejamento e do gerenciamento do processo logístico pode tornar-se uma ferramenta competitiva para a efetiva sustentação de estratégias na busca de novos mercados e novos objetivos de negócios. Sendo uma das competências necessárias para criar valores para o cliente a logística evolui da sua base conceitual, para a obtenção da vantagem competitiva e parte fundamental da estratégia empresarial. O objetivo desta dissertação é caracterizar e analisar o processo de gestão da cadeia logística e a de suas atividades nos processos como fator competitivo e de estratégia empresarial em uma agroindústria. A pesquisa é de caráter exploratório através de um estudo de caso e busca-se como resultado uma análise acerca de estratégias para a competitividade e do seu relacionamento logístico, sua estrutura e mudanças, tendo como base para o levantamento desses dados e análise, o modelo desenvolvido por BOWERSOX (1989). Como conclusão tem-se uma mostra de como os conceitos de logística têm uma função muito mais relacional e estratégica nas estruturas das organizações dentro de um contexto competitivo. O uso maciço da tecnologia, a otimização, o oportunismo e a eficiência nas habilidades de gerenciamento das estratégias logísticas e na integração funcional como elementos prioritários tem como objetivo criar valor – em lucratividade e retorno sobre o investimento - tanto para a empresa como para o seu cliente.
Resumo:
Nas últimas décadas,o interesse pelo gerenciamento do valor tem aumentado no setor da construção. Neste contexto,a geração de valor pode ser compreendida como o atendimento dos requisitos do cliente final.Tal atendimento, por sua vez, depende de como os requisitos são priorizados e comunicados para a equipe de projeto ao longo do processo de desenvolvimento do produto. O objetivo desta dissertação consiste em propor um conjunto de diretrizes para o gerenciamento dos requisitos do cliente no processo de desenvolvimento do produto edificio, de forma a estabelecer meios para capturar requisitos e controlar seu fluxo,em empreendimentos da construção. O método de pesquisa foi dividido em três etapas. Inicialmente foi realizada uma revisão bibliográfica. Em seguida, foi desenvolvido um estudo de caso em uma empresa que realiza empreendimentos habitacionais, o qual resultou em uma proposta inicial de diretrizes para a gestão dos requisitos do cliente, enfatizando contexto deste tipo de empreendimento. A terceira etapa envolveu a realização de um segundo estudo de caso em um empreendimento industrial realizado por uma empresa que atua com obras complexas, de curto prazo e com elevado grau de incerteza. Este estudo possibilitou um segundo ciclo de aprendizagem, resultando no conjunto final de diretrizes para a gestão dos requisitos do cliente, considerando também empreendimentos de obras industriais de execução rápida Ambos os estudos de caso envolveram otrabalho de equipes multidisciplinares durante o processo de desenvolvimentodo produto. Estas equipes incluíram ambas profissionais das construtoras envolvidas,bem como, projetistas, consultores, empreiteiros e representantes do cliente. As respectivas equipes realizaram diversas tarefas ao longo do empreendimento, tais como identificar o objetivo do empreendimento, planejar e controlar o processo de desenvolvimento do produto, formular um programa de necessidades tão completo quanto possível e considerar os requisitos do sistema de produção nas fases iniciais do processo de desenvolvimento do produto. As principais conclusões desta pesquisa estão relacionadas à introdução de uma sistemática para gerenciamento dos requisitos do cliente no desenvolvimento do produto e à aplicação de ferramentas para coletar dados e apoiar a tomada de decisão. Constatou-se que o uso de ferramentas relativamente simples para realizar a captura e controle do fluxo de requisitos do cliente teve um efeito positivo no processo de desenvolvimento do produto. O estudo também indicou a necessidadede realizar a gestão dos requisitos do cliente desde as fases iniciais de concepção dos empreendimentos da construção. Além disso, o estudo resultou em contribuições conceituais para a consolidação do conhecimento da natureza do processo de projeto, no que se refere à geração de valor.
Resumo:
O avanço tecnológico no projeto de microprocessadores, nos recentes anos, tem seguido duas tendências principais. A primeira tenta aumentar a freqüência do relógio dos mesmos usando componentes digitais e técnicas VLSI mais eficientes. A segunda tenta explorar paralelismo no nível de instrução através da reorganização dos seus componentes internos. Dentro desta segunda abordagem estão as arquiteturas multi-tarefas simultâneas, que são capazes de extrair o paralelismo existente entre e dentro de diferentes tarefas das aplicações, executando instruções de vários fluxos simultaneamente e maximizando assim a utilização do hardware. Apesar do alto custo da implementação em hardware, acredita-se no potencial destas arquiteturas para o futuro próximo, pois é previsto que em breve haverá a disponibilidade de bilhões de transistores para o desenvolvimento de circuitos integrados. Assim, a questão principal a ser encarada talvez seja: como prover instruções paralelas para uma arquitetura deste tipo? Sabe-se que a maioria das aplicações é seqüencial pois os problemas nem sempre possuem uma solução paralela e quando a solução existe os programadores nem sempre têm habilidade para ver a solução paralela. Pensando nestas questões a arquitetura SEMPRE foi projetada. Esta arquitetura executa múltiplos processos, ao invés de múltiplas tarefas, aproveitando assim o paralelismo existente entre diferentes aplicações. Este paralelismo é mais expressivo do que aquele que existe entre tarefas dentro de uma mesma aplicação devido a não existência de sincronismo ou comunicação entre elas. Portanto, a arquitetura SEMPRE aproveita a grande quantidade de processos existentes nas estações de trabalho compartilhadas e servidores de rede. Além disso, esta arquitetura provê suporte de hardware para o escalonamento de processos e instruções especiais para o sistema operacional gerenciar processos com mínimo esforço. Assim, os tempos perdidos com o escalonamento de processos e as trocas de contextos são insignificantes nesta arquitetura, provendo ainda maior desempenho durante a execução das aplicações. Outra característica inovadora desta arquitetura é a existência de um mecanismo de prébusca de processos que, trabalhando em cooperação com o escalonamento de processos, permite reduzir faltas na cache de instruções. Também, devido a essa rápida troca de contexto, a arquitetura permite a definição de uma fatia de tempo (fatia de tempo) menor do que aquela praticada pelo sistema operacional, provendo maior dinâmica na execução das aplicações. A arquitetura SEMPRE foi analisada e avaliada usando modelagem analítica e simulação dirigida por execução de programas do SPEC95. A modelagem mostrou que o escalonamento por hardware reduz os efeitos colaterais causados pela presença de processos na cache de instruções e a simulação comprovou que as diferentes características desta arquitetura podem, juntas, prover ganho de desempenho razoável sobre outras arquiteturas multi-tarefas simultâneas equivalentes, com um pequeno acréscimo de hardware, melhor aproveitando as fatias de tempo atribuídas aos processos.