93 resultados para Padronização de processos

em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul


Relevância:

60.00% 60.00%

Publicador:

Resumo:

Este trabalho analisa o impacto do Programa de Qualidade Total no Controle Organizacional da Cooperativa Regional Tritícola Serrana Ltda – COTRIJUÍ - Unidade de Dom Pedrito, RS. Tomou-se por base a abordagem estruturalista, tratando-se dos aspectos contingenciais sistêmicos de coordenação e controle. Adotou-se a classificação dada por Mintzberg (1995): ajustamento mútuo, supervisão direta e a padronização (habilidades, processos de trabalho e resultados), que foram analisados nos níveis técnico, gerencial e de diretoria. A COTRIJUÍ/Dom Pedrito, RS, unidade da COTRIJUÍ/Ijuí, é uma organização cooperativa que atua na área de recebimento, de secagem, de armazenagem, de industrialização e de comercialização de arroz beneficiado e seus sub-produtos. O método do estudo de caso caracteriza esta pesquisa. Os dados, coletados através de entrevista semiestruturada, contatos informais, análise documental e observação direta, foram interpretados de forma qualitativa. Dentre os resultados encontrados, a COTRIJUÍ/Dom Pedrito vem buscando ajustar sua estrutura às contingências do ambiente participando da dinâmica da competição instável e imprevisível, passando pelo desafio da conquista de mercados e da No nível técnico, o maior efeito se deu no mecanismo de PADRONIZAÇÃO DO PROCESSO DE TRABALHO, que passou a ser mais utilizado. A SUPERVISÃO DIRETA, porém, mesmo depois da introdução do Programa de Qualidade Total, permaneceu inalterada, tornando os demais mecanismos menos importantes, uma vez que o superior hierárquico manteve-se com o poder de controlar seus subordinados. No gerencial, a PADRONIZAÇÃO DAS HABILIDADES se apresentou como sendo o mecanismo mais utilizado, seguido da PADRONIZAÇÃO DO PROCESSO DE TRABALHO que também se intensificou, uma vez que houve um aumento significativo dos controles dos processos. No nível de diretoria, antes da introdução do Programa de Qualidade Total, a SUPERVISÃO DIRETA era o mecanismo que caracterizava este nível, já que a tomada de decisão era centralizada na pessoa do gerente geral que decidia todas as questões referentes à unidade. Com a constituição do Comitê de Crédito e a introdução do Programa de Qualidade Total o AJUSTAMENTO MÚTUO passou a ser praticamente o único mecanismo utilizado.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta dissertação apresenta uma abordagem sistemática para garantir a estabilidade dos resultados dos processos e, assim, o alcance das metas de produção e qualidade. Essa abordagem contempla oito etapas principais: (I) identificação do processo crítico, (iI) tratamento do processo crítico, (iil) padronização operacional, (iv) treinamento operacional, (v) operação conforme o padrão, (VI) tratamento de anomalias, (vil) auditoria de padrão e (viiI) controle estatístico de processo. A metodologia proposta, chamada de "Estabilização de Processo", se propõe a garantir a previsibilidade dos resultados dos processos operacionais de maneira focada, através da identificação dos processos críticos, de seus indicadores, de suas metas-padrão e da manutenção do seu resultado numa faixa de domínio que atenda às necessidades dos clientes. As principais vantagens do método são: (I) um método simples e organizado de atividades corretivas e preventivas, (if) a abordagem estatística, que fornece uma base sólida para a tomada de decisões e (iil) o gerenciamento do processo da rotina com foco no par operador-tarefa. Por fim, é apresentado e discutido um estudo de caso em uma indústria siderúrgica, que contribui para a validação do método proposto.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A crescente necessidade de padronização, eficácia e gerenciamento de processos têm aumentado o interesse das mais diferentes organizações pela tecnologia de workflow. Entretanto, a rápida propagação da tecnologia de workflow, ocorrida na última década, fez com que muitos sistemas desenvolvidos nesta área fossem disponibilizados e difundidos sem uma padronização clara. Analisando-se especificamente a fase de construção do workflow, nota-se que há muitas divergências. Conceitualmente, ainda não há modelos nem metodologias de modelagem amplamente aceitos e consolidados. Quanto às implementações, ainda não existe uma especificação clara e detalhada das ferramentas de definição. A conseqüência deste panorama é a baixa interoperabilidade e a baixa padronização dos conceitos, funcionalidades e interações das ferramentas de definição. Contudo, muitos esforços estão sendo feitos para solucionar o problema da interoperabilidade e padronização. A área de workflow como um todo já começa a apontar fortes tendências de padronização dos conceitos, funcionalidades e interações de seus sistemas. Detectar e avaliar tais tendências são os focos de estudos desta dissertação. Mais precisamente, o objetivo desta dissertação é fornecer informações e métodos que possam ajudar desenvolvedores e usuários de ferramentas de definição a: compreender, descrever e avaliar os conceitos, funcionalidades e interações deste tipo de ferramenta. Para tanto, é mostrado um método de descrição de modelos conceituais de ferramentas de definição. O referido método é resultado de uma pesquisa sobre o modelo conceitual deste tipo de ferramenta. Com base nas informações pesquisadas, foi desenvolvido o modelo conceitual de uma ferramenta de definição chamada de Amaya Workflow (AW). Para mostrar a viabilidade de implementação do modelo conceitual AW e concretizar em um software os estudos desenvolvidos durante esta dissertação, foi implementado o protótipo Amaya Workflow. Por fim, é mostrado um panorama geral das funcionalidades, conceitos e interações das principais ferramentas de definição existentes. Com base neste panorama e nos estudos anteriores, é descrito um método de avaliação de modelos conceituais de ferramentas de definição.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação pretende consolidar um método quantitativo, flexível e genérico que possa ser útil na otimização experimental dos mais variados produtos e processos industriais medidos por múltiplas variáveis de resposta. O que se pretende com o método é identificar o ajuste ótimo dos fatores controláveis, ou seja, aquele que reduz os custos devido à má qualidade de um produto considerando também os custos de matéria-prima e energia gastos na fabricação desse produto. A redução dos custos gerados pela má qualidade de um produto é alcançada através da minimização dos desvios das variáveis de resposta dos seus valores alvos e maximização da robustez do produto ou processo aos fatores de ruído e a possíveis oscilações nos fatores controláveis, pois toda vez que uma variável de resposta desvia-se do seu valor alvo ou apresenta variabilidade, existe uma perda financeira experimentada pelo seu usuário. Ao longo do texto, faz-se uma revisão da literatura existente sobre o assunto, apresentam-se as etapas do método que devem ser cumpridas e algumas ferramentas consideradas eficientes no cumprimento dessas etapas. Logo após, realizam-se estudos práticos para validar o método e, baseado nesses estudos e no referencial teórico, conclui-se sobre o assunto.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As últimas décadas têm apresentado significativas mudanças no cenário intercapitalista mundial. Especialmente após a popularização internacional das filosofias e técnicas japonesas de gestão, partindo do Sistema Toyota de Produção, muitos estudos e metodologias têm sido desenvolvidos na busca da racionalização dos processos produtivos. Basicamente estes estudos foram centrados nas características da indústria de forma, vale dizer, bens de capital e bens duráveis de consumo. Neste sentido, surge um natural questionamento sobre a aplicabilidade destes conceitos e técnicas a outros tipos de processos produtivos, especialmente no caso da indústria de propriedade contínua, muitas vezes identifica da como indústria de transformação (incluindo refino de petróleo, petroquímica, papel e celulose, energia elétrica e outras), pelas características específicas apresentadas pela mesma. Assim, a presente dissertação analisa diferentes metodologias desenvolvidas para a indústria de forma, avaliando a possibilidade de aplicação de seus conceitos à indústria de propriedade contínua. Posteriormente, desenvolve um modelo analítico mais apropriado à realidade e característica deste tipo de indústria. A seguir, baseado nas conclusões do modelo analítico desenvolvido, estabelece os conceitos básicos de um modelo de gestão dos processos produtivos da indústria de propriedade contínua. Finalizando, são apresentadas as conclusões relativas à aplicação das diferentes metodologias, e em especial dos modelos desenvolvidos, à indústria de propriedade de produção contínua.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho tem como objetivo verificar o comportamento mecânico e físico de pozolanas artifíciais estabilizadas química e granulometricamente, curadas por dois processos de cura denominados de : autoclave(ATC), que utiliza temperaturas na faixa de 149 a 188°C e câmara à temperatura constante(CTC) que utiliza uma temperatura de ± 21°C. Também fez-se análises estatísticas com a finalidade de se determinar o efeito da energia de moldagem, temperatura e tempo de cura sobre os resultados dos ensaios, para cada processo de cura, além de se determinar modelos matemáticos para previsão de resultados de resistência através de regressões múltiplas e simples. As pozolanas artificiais empregadas foram as cinzas volante e pesada da Usina de Candiota, as quais foram estabilizadas com cal dolomítica hidratada e areia do Rio Guaíba. Os ensaios de resistência à compressão simples , absorção e perda de massa basearam-se nas normas da ABNT e DNER e para os estudos de análise estatística, fez-se anteriormente aos ensaios, dois planejamentos experimentais denominados de Split-Splot e Quadrado Latino, que foram utilizados nos processos de autoclavagem e câmara à temperatura constante, representativamente. Os Corpos-de-Prova curados na câmara à temperatura constante, até os 28 dias de cura, apresentaram resultados de resistências inferiores aqueles curados pelo processo de autoclave. Aos 60 dias de cura suas resistências ficaram na faixa dos valores de Corpos-de-Provas curados pela autoclave nas temperaturas de 149 a 188°C, excessão feita na mistura utilizando areia, onde em todos os períodos de cura estudados,os valores de resistência dos Corpos-de-Prova curados pelo câmara à temperatura constante foram inferiores. A proporção da quantidade de cal e cinza na mistura, bem como o valor da superfície específica da cinza influenciam nos resultados de ensaios, independentemente da variação dos fatores principais. Em termos de análise estatística verificou-se que a energia de moldagem e o tempo de cura são os fatores que apresentam os maiores efeitos sobre os resultados da resistência, para os processos de cura ATC e CTC, respectivamente.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação aborda o controle e garantia da qualidade no processo de manufatura de óleo de arroz, através do monitoramento estatístico de variáveis de processo e produto, com vistas a atingir padrões de excelência no processo produtivo e na satisfação dos clientes. O Controle Estatístico de Processos (CEP) fornece uma descrição detalhada do comportamento do processo, identificando sua variabilidade e possibilitando controlar esta ao longo do tempo. O CEP utiliza cartas de controle de processo, auxiliando na identificação de causas comuns e especiais de variação. A dissertação apresenta uma revisão detalhada da literatura abordando dois temas principais: (i) controle dos processos de manufatura do óleo de arroz (ii) implantação do controle estatístico de processos. Após priorização das características de qualidade a serem monitoradas no processo e treinamento do pessoal, apresenta-se a implantação efetiva do controle estatístico no processo de manufatura de óleo de arroz, através das seguintes etapas: (i) Definição do projeto, (ii) Planejamento da implantação, (iii) Treinamento em controle estatístico de processos, (iv) Implantação efetiva e (v) Acompanhamento e consolidação. Através dos dados coletados ao longo da implantação, são apresentadas conclusões, comparando a estabilidade e capacidade dos processos das diversas características de qualidade monitoradas, antes e depois da implantação do controle estatístico de processos. Assim, verificou-se com a implantação do CEP nos postos 1 (preparação) e 2 (extração) foram obtidas melhorias e no posto 3 (refinaria) devido a falta de automatização dos processos, estes foram menos beneficiados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Através da utilização de sistemas de controle informatizados, indústrias buscam uma caracterização mais completa de seus processos, gerando, freqüentemente, um grande volume de dados acerca de inúmeras variáveis de desempenho dos processos. Entretanto essa grande massa de dados é subaproveitada, visto que as cartas de controle multivariadas tradicionais, tais como as cartas de Hotelling, MCUSUM e MEWMA não são suficientemente robustas para tratar com um grande número de variáveis correlacionadas, pois foram concebidas para monitorar um número reduzido de variáveis de qualidade do produto final. Diante disso, ferramentas multivariadas mais robustas, que incorporam essas informações, vêm sendo desenvolvidas; dentre estas, destaca-se a Multiway Principal Component Analysis (Análise de Componentes Principais Multidirecionais; ACPM). Neste trabalho, apresenta-se a base teórica para a elaboração de uma carta de controle a partir da estratégia ACPM, para monitoramento on-line de processos em bateladas. Nesses processos, aferições freqüentes de variáveis de processo são disponibilizadas durante a realização de cada batelada. As cartas de controle baseadas em ACPM permitem o tratamento de variáveis autocorrelacionadas, com médias que descrevem trajetórias não lineares se observadas em momentos seqüenciados no tempo. Tais variáveis aparecem com freqüência em processos por bateladas. Uma aplicação das cartas de controle baseadas em ACPM em um sub-processo de produção de borracha para cobertura de pneus ilustra a utilização da ferramenta.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As cartas de controle estatístico têm sido amplamente utilizadas no monitoramento do desempenho de processos. Com a crescente informatização dos processos industriais, tem-se verificado um aumento sensível na quantidade de informações disponíveis sobre variáveis de processo. Via de regra, essas variáveis apresentam-se fortemente correlacionadas. Em casos especiais, como nos processos em batelada, tais variáveis descrevem um perfil de variação ao longo do tempo, caracterizando o comportamento normal do processo. Nessas condições especiais, as cartas de controle tradicionais não proporcionam um monitoramento eficaz sobre o processo. Esta dissertação de mestrado apresenta uma alternativa para o monitoramento on line de processos em bateladas: a proposição de uma metodologia para implantação de cartas de controle multivariadas baseadas em componentes principais. A idéia central dessas cartas é monitorar simultaneamente diversas variáveis, controlando somente algumas poucas combinações lineares independentes delas; tais combinações são denominadas componentes principais. O presente trabalho ilustra a metodologia proposta em um estudo de caso realizado na etapa de fermentação do processo de fabricação de cerveja de uma indústria de bebidas, localizada na região metropolitana de Porto Alegre.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dentre as principais áreas que constituem a Ciência da Computação, uma das que mais influenciam o mundo atual é a Engenharia de Software, envolvida nos aspectos tecnológicos e gerenciais do processo de desenvolvimento de software. Software tornou-se a base de sustentação de inúmeras organizações dos mais diversos ramos de atuação espalhados pelo planeta, consistindo de um elemento estratégico na diferenciação de produtos e serviços atuais. Atualmente, o software está embutido em sistemas relacionados a infindável lista de diferentes ciências e tecnologias. A Tecnologia de Processo de Software surgiu em meados da década de 1980 e representou um importante passo em direção à melhoria da qualidade de software através de mecanismos que proporcionam o gerenciamento automatizado do desenvolvimento de software. Diversas teorias, conceitos, formalismos, metodologias e ferramentas surgiram nesse contexto, enfatizando a descrição formal do modelo de processo de software, para que possa ser automatizado por um ambiente integrado de desenvolvimento de software. Os modelos de processos de software descrevem o conhecimento de uma organização e, portanto, modelos que descrevem experiências bem sucedidas devem ser continuamente disseminados para reutilização em diferentes projetos. Apesar da importância desse tópico, atualmente apenas uma pequena porção do conhecimento produzido durante o desenvolvimento de software é mantido para ser reutilizado em novos projetos. Embora, à primeira vista, o desafio de descrever modelos reutilizáveis para processos de software pareça ser equivalente ao problema tratado pela tradicional área de reutilização de produtos software, isso é apenas parcialmente verdade, visto que os processos envolvem elementos relacionados com aspectos sociais, organizacionais, tecnológicos e ambientais. A crescente complexidade da atual modelagem de processos vem influenciando a investigação de tecnologias de reutilização que sejam viáveis nesse campo específico. A investigação conduzida nesse trabalho culminou na especificação de um meta-modelo que tem como objetivo principal aumentar o nível de automação fornecido na reutilização de processos, apoiando a modelagem de processos abstratos que possam ser reutilizados em diferentes contextos. O meta-modelo proposto por esse trabalho - denominado APSEE-Reuse - fornece uma série de construtores sintáticos que permitem que os diferentes aspectos desse contexto sejam descritos segundo múltiplas perspectivas, complementares entre si, contribuindo para diminuir a complexidade do modelo geral. A solução proposta destaca-se por fornecer um formalismo para modelagem de processos, o qual é integrado à uma infraestrutura de automação de processos de software, permitindo que a reutilização esteja intimamente relacionada com as outras etapas do ciclo de vida de processos. Os diferentes componentes envolvidos na definição do modelo APSEE-Reuse proposto foram especificados algebricamente, constituindo uma base semântica de alto 15 nível de abstração que deu origem a um conjunto de protótipos implementados no ambiente PROSOFT-Java. O texto ainda discute os experimentos realizados com o meta-modelo proposto na especificação de diferentes estudos de casos desenvolvidos a partir de exemplos retirados na literatura especializada, e de processos que fornecem soluções em contextos e necessidades específicas de projetos desenvolvidos no PPGC-UFRGS. Finalmente, são apresentadas considerações acerca dos trabalhos relacionados, os elementos críticos que influenciam a aplicabilidade do modelo e as atividades adicionais vislumbradas a partir do trabalho proposto.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Diversas e velozes mudanças vêm ocorrendo nos últimos anos, e o aumento da competitividade é uma realidade presente no mundo empresarial. O gerente está no seio destes acontecimentos, desempenhando papel muito importante nos processos de inovação e mudança organizacional. Neste cenário, um novo conceito de competências gerenciais passa a ser valorizado. O conceito de competência, inicialmente associado à linguagem jurídica, vem sendo utilizado no mundo organizacional representando um conceito dinâmico, concretizado no desempenho; competência é saber, saber fazer e saber agir. A gestão de competências surge como um tema desafiador, dentro do subsistema de desenvolvimento humano da área de Recursos Humanos. Como um assunto novo e pouco estudado em nosso país, este trabalho apresenta resultados de uma pesquisa realizada em três empresas do Rio Grande do Sul, sobre as noções e processos de desenvolvimento utilizados na gestão de competências gerenciais. A metodologia utilizada foi de natureza qualitativa, através de estudo exploratório-descritivo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A escritora objeto desta tese, figura proeminente da literatura neozelandesa, voltou-se ao gênero autobiográfico após um longo percurso na área da ficção, para definir-se como uma primeira pessoa, depois de sua vida particular ter sido insistentemente confundida com sua obra por parte da crítica. Uma questão que logo vem à tona é que praticamente toda ficção resulta ser, até um certo grau, fundamentalmente autobiográfica e que a análise crítica da obra de um escritor possibilita o conhecimento de sua vida. Nosso argumento, opondo-se a esse pressuposto, parte da vida para melhor compreender a obra, evidenciando que Janet Frame manteve um grande distanciamento entre os eventos reais e sua ficcionalização, realizando uma tarefa que a coloca lado a lado dos nomes mais ilustres da literatura ocidental do século XX. Numa atitude comparatista, procuramos extrair os diversos processos de transmutação estética realizados pela escritora, buscando sanar algumas distorções que impediram uma análise mais confiável de sua obra, problematizando, entre outros aspectos, a questão do gênero autobiográfico, da mímese e do realismo ficcional. A manipulação artística da vida particular de Janet Frame foi resgatada por um conjunto de processos, entre os quais a antimímese, a poetização do quotidiano, a intertextualidade e a interdiscursividade, que revelam um alcance estético e uma auto-referencialidade deslocada muito além do mero biografismo. Outros aspectos analisados na obra como um todo indicam que novas abordagens da ficção de Janet Frame, a partir de enfoques pós-modernos, pós-coloniais, pós-estruturalistas e feministas podem superar as posturas reducionistas das quais ela foi alvo.