943 resultados para Gerenciamento de processos


Relevância:

20.00% 20.00%

Publicador:

Resumo:

A demanda por maior responsabilidade social e ecológica, a pressão do mercado internacional e os custos da produção têm levado as empresas a adotarem estratégias ambientais preventivas que possam gerar um diferencial competitivo. Este trabalho pretende colaborar para o debate a respeito do surgimento de um novo modelo de produção que parece responder às atuais necessidades das empresas por um melhor desempenho ambiental: o modelo de produção mais limpa. Para realização deste estudo foi escolhida a indústria automotiva, devido à sua importância no cenário econômico internacional e, especialmente, porque foi exatamente nessa indústria onde nasceram os dois principais modelos de produção que marcaram este século: a produção em massa e a produção enxuta. Na emergência deste novo modelo, procurou-se observar como tem sido sua abordagem no setor automotivo através da verificação dos seus reflexos na cadeia de suprimento. O objeto deste estudo é um conjunto de oito empresas localizadas no Estado do Rio Grande do Sul que pertencem à cadeia de fornecedores da indústria automotiva. O estudo buscou identificar o comportamento dessas empresas em relação ao modelo de produção mais limpa, a partir da realização de entrevistas com os responsáveis por meio ambiente. Entre os resultados da pesquisa foi possível observar que as empresas ainda adotam muitas técnicas de “fim-de-tubo”, contudo na medida que investem na maior eficiência e qualidade de seus processos, crescem as práticas que vão ao encontro da produção mais limpa.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A preservação e o armazenamento de células e tecidos têm sido utilizados largamente em pesquisa científica e aplicações clínicas. No entanto, há uma aparente contradição entre o conceito de preservaão e as conclusões baseadas em resultados experimentais que materiais biológicos criopreservados podem ser danificados pelo próprio processo de preservação. A compreensão do processo de solidificação de soluções salinas é fundamental para a proposição de novos protocolos de criopreservação. No presente estudo, o congelamento de uma solução de cloreto de sódio a 1% em massa é simulado. As equações de conservação de massa, momentum, energia, e espécies químicas foram discretizadas e resolvidas numericamente utilizando-se o método dos volumes de controle para um domínio bidimensional que contém a parede da bolsa plástica e a solução salina. A perda de água da célula foi calculada a partir da história de temperatura e concentração durante o processo de solidificação e verificou-se que, dependendo da posição inicial da célula na bolsa, a célula tem probabilidades diferentes de sobreviver durante o processo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho visa desenvolver um modelo físico e matemático geral para os processos de extração sólido-líquido em fluxos contracorrente cruzados (CCC) que são utilizados na indústria de alimentos. Levam-se em consideração os processos principais (o transporte de massa entre as fases, difusão e convecção) envolvidos por todo o campo de extração, com uma abordagem bidimensional evolutiva, incluindo as zonas de carregamento, drenagem e as bandejas acumuladoras. O modelo matemático é formado por equações diferenciais parciais que determinam a alteração das concentrações nas fases poro e “bulk” em todo o campo de extração e equações diferenciais ordinárias (que refletem as evoluções das concentrações médias nas bandejas). As condições de contorno estabelecem as ligações entre os fluxos CCC da micela e matéria-prima e consideram, também, a influência das zonas de drenagem e carregamento. O algoritmo de resolução utiliza o método de linhas que transforma as equações diferenciais parciais em equações diferenciais ordinárias, que são resolvidas pelo método de Runge-Kutta. Na etapa de validação do modelo foram estabelecidos os parâmetros da malha e o passo de integração, a verificação do código com a lei de conservação da espécie e um único estado estacionário. Também foram realizadas a comparação com os dados experimentais coletados no extrator real e com o método de estágios ideais, a análise da influência de propriedades da matéria-prima nas características principais do modelo, e estabelecidos os dados iniciais do regime básico (regime de operação) Foram realizadas pesquisas numéricas para determinar: os regimes estacionário e transiente, a variação da constante de equilíbrio entre as fases, a variação do número de seções, a alteração da vazão de matéria-prima nas características de um extrator industrial e, também foram realizadas as simulações comparativas para diferentes tipos de matéria-prima (flocos laminados e flocos expandidos) usados amplamente na indústria. Além dessas pesquisas, o modelo também permite simular diferentes tipos de solventes. O estudo da capacidade de produção do extrator revelou que é necessário ter cuidado com o aumento da vazão da matéria-prima, pois um pequeno aumento desta pode causar grandes perdas de óleo tornando alto o custo da produção. Mesmo que ainda seja necessário abastecer o modelo com mais dados experimentais, principalmente da matéria-prima, os resultados obtidos estão em concordância com os fenômenos físico-químicos envolvidos no processo, com a lei de conservação de espécies químicas e com os resultados experimentais.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho de pesquisa enfoca a utilização de indicadores de desempenho por uma empresa distribuidora de energia elétrica, avaliando sua utilização no gerenciamento estratégico dessa empresa. A justificativa para a realização do estudo ressalta as mudanças ocorridas no cenário do sistema elétrico brasileiro O embasamento teórico centra a pesquisa na literatura sobre o Mercado de Energia Elétrica, Formulação de Estratégia, Gestão Estratégica e Indicadores de Desempenho, enfatizando a necessidade do produto energia elétrica ser fornecido com a qualidade exigida pelo padrão dos equipamentos sofisticados utilizados pela indústria e das necessidades dos consumidores em geral. Na fase de conclusão o trabalho procura identificar os elementos estratégicos utilizados pela empresa, quais são os indicadores de desempenho utilizados, como se dá o controle e a apuração destes, e por fim verifica sua utilização no gerenciamento estratégico.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Através da metodologia “Observação Estruturada” foram estudados 5 (cinco) adm inistradores hospitalares de hospitais filantrópicos gerais de grande porte no estado do Rio Grande do Sul, durante uma semana cada um, observando, minuto após minuto, dia após dia, como eles executam seus trabalhos. O estudo, que utilizou as mesmas categorizações de Mintzberg (1973), conclui no mesmo sentido de Mintzberg de que também o Administrador Hospitalar “não é um planejador sistemático e reflexivo, mas sim um profissional que executa suas atividades em ritmo intenso, com as características de brevidade, fragmentação e variedade. É firmemente orientado para a ação e vê-se constantemente bombardeado por telefonemas, correspondências e por pessoas que às vezes irrompem em sua sala para fornecer-lhe ou dele receber informações” (pág. 28-53, 1973). Utiliza-se intensamente da comunicação verbal e apóia-se em extensiva rede de contatos externos à organização hospitalar para a obtenção e troca de informações. A principal diferença entre os Administradores Hospitalares por mim pesquisados e os gerentes analisados por Mintzberg é que aqueles envolvem-se num número expressivamente maior de negociações do que estes. Enquanto que 10% (dez por cento) do total de contatos dos Administradores Hospitalares referem- se a negociações, apenas 1% (um por cento) do total de contatos dos gerentes estudados por Mintzberg refere-se a esse papel. A dinâmica e complexa interação dos quatro mundos do hospital (Mintzberg,1977): cura, cuidados, controle e comunidade são fontes de constante pressão em seu trabalho, desafiando suas habilidades (técnicas, humanas e conceituais) e exigindo-lhe elevada capacidade de observação, de negociação, de administração do tempo e de controle emocional, ao lado da competência em argumentar, em falar em público, em conhecer o sistema de saúde e em inter-relacionar-se com os demais profissionais da saúde.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As cartas de controle estatístico têm sido utilizadas com sucesso no monitoramento do desempenho de processos industriais. Diversas modificações nas cartas tradicionais de Shewhart vêm sendo propostas na literatura. Tais modificações visam adaptar as cartas de controle ao monitoramento de processos com características especiais; entre elas, destacam-se as cartas de controle adaptativas. As cartas são ditas adaptativas quando pelo menos um de seus parâmetros (tamanho de amostra, intervalo de amostragem e coeficiente dos limites de controle) pode variar durante o monitoramento do processo. A determinação dos valores dos parâmetros das cartas de controle pode considerar aspectos estatísticos, econômicos ou uma combinação de ambos. Os modelos estatístico-econômicos consideram, além de indicadores de desempenho estatístico, os custos associados ao controle. A implementação de cartas adaptativas baseadas neste tipo de modelo, devido a sua complexidade, é melhor conduzida por meio de uma metodologia de planejamento. Neste trabalho, após uma revisão da literatura sobre cartas tradicionais e adaptativas, incluindo o projeto econômico das mesmas, propõe-se uma metodologia para o planejamento da implementação de cartas adaptativas de controle para monitorar processos onde cartas de controle tradicionais estão sendo utilizadas A metodologia é composta de cinco passos gerais, detalhados na dissertação, e foi elaborada a partir de um estudo de caso em uma indústria do setor automotivo, no qual se utilizou um modelo estatístico-econômico. No estudo de caso, o significado e a forma de determinação dos parâmetros do modelo econômico são detalhados. Os resultados do estudo de caso são comparados quanto aos custos operacionais para as cartas adaptativas e tradicionais de controle de processo. Os resultados obtidos indicaram ser preferível o uso de cartas adaptativas ao uso de cartas tradicionais para monitorar o processo estudado, principalmente no caso de pequenas variações na média da característica de qualidade monitorada. Embora de natureza genérica, a metodologia proposta pode ser facilmente adaptada para contemplar diferentes aplicações industriais.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A grande quantidade de dados eletrônicos disponível atualmente nem sempre pode ser representada com modelos tradicionais, principalmente devido à ausência de esquema no momento da criação destes dados. Neste sentido, modelos semi-estruturados têm sido propostos; uma das abordagens utilizadas é XML, uma linguagem para troca e representação deste tipo de informação. Entretanto, consultar dados semi-estruturados pode demandar processos de extração com alto custo. Uma das alternativas para solucionar este problema é a definição de visões sobre estes dados, e a posterior materialização destas informações. O uso de visões materializadas para dados XML ainda é pouco explorado. Uma das abordagens que podem ser utilizadas é o uso de sistemas de gerenciamento de bancos de dados relacionais para o armazenamento das visões. Desse modo, informação semanticamente relacionada (informação acerca de um mesmo domínio, possivelmente representada em formatos diferentes) pode ser agrupada em uma única unidade lógica, facilitando o acesso a estes dados por parte do usuário, e introduzindo alguma estrutura nos dados semiestruturados. Dessa maneira, o usuário final submete consultas diretamente sobre a visão materializada, evitando extrações contínuas de dados nas fontes XML. A materialização de dados XML exige a definição de um repositório de dados para o armazenamento destas instâncias. Utilizando-se a abordagem relacional, é necessário definir um mecanismo para a geração do esquema lógico do banco de dados. Consultar os dados nas fontes XML exige a integração destas instâncias. Neste contexto, integrá-las significa identificar quais instâncias de dados representam o mesmo objeto do mundo real, bem como resolver ambigüidades de representação deste objeto. O problema de identificação de entidades em XML é mais complexo que em bases de dados estruturadas. Dados XML, como propostos originalmente, não carregam necessariamente a noção de chave primária ou identificador de objeto. Assim, é necessária a adoção de um mecanismo que faça a identificação das instâncias na integração destes dados. Além disso, à medida que as fontes de dados XML sofrem alterações, a visão materializada deve ser atualizada, a fim de manter-se consistente com as fontes de dados. A manutenção deve propagar as alterações feitas nos dados XML para a visão materializada. Reprocessar todo o conteúdo da visão materializada é, na maioria das vezes, muito caro. Assim, é desejável propagar as mudanças incrementalmente, ou seja, processar apenas as alterações necessárias. Neste sentido, o presente trabalho apresenta uma proposta de técnica para armazenamento de dados XML em um banco de dados relacional. A proposta utiliza ontologias para a geração do esquema lógico do banco de dados. O problema de integração de dados é mostrado. O foco principal do trabalho está na proposta de uma técnica de atribuição de identificadores a instâncias XML, baseada no uso de funções Skolem e no padrão XPath, proposto pelo W3C. Também é proposto um mecanismo para manutenção incremental deste banco, à medida que as fontes XML sofrem atualizações.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As redes de computadores experimentam um grande crescimento não apenas em tamanho, mas também no número de serviços oferecidos e no número de protocolos de alto nível e aplicações que são executados sobre elas. Boa parte desses software (ex.: ICQ e Napster), em geral, não está diretamente ligada a aplicações críticas, mas o seu uso não controlado pode degradar o desempenho da rede. Para que se possa medir o impacto dos mesmos sobre a infra-estrutura, mecanismos de gerência ligados à contabilização e caracterização de tráfego são desejáveis. Por outro lado, alguns protocolos, serviços e aplicações (ex. servidores DNS e Web) suportam aplicações e precisam ser monitorados e gerenciados com maior atenção. Para essa classe de software de rede, a simples contabilização e caracterização de tráfego não é suficiente; tarefas de gerência como teste de serviços, detecção e manipulação de falhas, medição de desempenho e detecção de intrusão são importantes para garantir alta disponibilidade e eficiência da rede e aplicações. As ferramentas existentes para essa finalidade são, entre aspectos, (a) não integradas (necessidade de uma ferramenta para monitorar cada aplicação), (b) centralizadas (não oferecem suporte à distribuição de tarefas de gerenciamento) e (c) pouco flexíveis (dificuldade em gerenciar novos protocolos, serviços e aplicações). Nesse contexto, a tese propõe uma arquitetura, centrada na monitoração passiva em temporal do tráfego de rede, para gerenciamento distribuído de protocolos de alto nível, serviços e aplicações em rede. Baseada da MIB (Management Information Base) Script do IETF (Internet Engineering Task Force), a arquitetura Trace oferece mecanismos para a delegação de tarefas de gerenciamento a gerentes intermediários, que interagem com agentes de monitoração e agentes de ação para executá-las. A tese propõe também PTSL (Protocol Trace Specification Language), uma linguagem gráfica/textual criada para permitir que gerentes de rede especificam as interações de protocolos (traços) que lhes interessam monitorar. As especificações são usadas pelso gerentes intermediários para programar os agentes de monitoração. Uma vez programadas, esses agentes passam a monitorar a ocorrência dos traços.As informações obtidas são analisadas pelos agentes intermediários, que podem requisitar de ação a execução de procedimentos (ex: scripts Perl), possibilitando a automação de diversas tarefas de gerenciamento. A arquitetura proposta é validada por um protótipo: a plataforma de gerenciamento Trace.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O aumento da competitividade negocial gerou o desenvolvimento de novos métodos de gerenciamento de custos. As novas tecnologias de produção e a maior diversidade de produtos e clientes que requerem novos canais de distribuição estão direcionando as empresas a estarem mais envolvidas no aprimoramento dos seus sistema de custeio. O tradicional sistema de contabilidade gerencial está sendo reconhecido como deficiente para tomada de decisões. A alocação convencional dos custos de overhead podem gerar distorções nos custos finais. Por conseqüência, o ABC (Custeio Baseado em Atividades) surgiu como um método de custeio que melhor aloca os custos fixos indiretos, podendo contribuir para a melhoria operacional e a gestão estratégica. O ABC revela a causa dos custos, considerando a integração interfuncional dos processos e a relação causal dos direcionadores de custos com os custos das atividades e recursos. Este trabalho de pesquisa apresenta a aplicação do ABC em uma empresa transportadora rodoviária de cargas; propõe o custeio baseado em atividades como uma alternativa para identificação dos clientes mais rentáveis. O método de pesquisa adotado nesta dissertação foi a pesquisa-ação. Dentre os resultados obtidos, destaca-se a obtenção do custo unitário de coleta e de entrega de cargas, além da análise dos processos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Para competir em nível internacional, as empresas brasileiras precisam atingir padrões de excelência em qualidade. Uma forma de atingir esses padrões é utilizando ferramentas de controle de qualidade que asseguremprocessos estáveis e capazes. A presente dissertação tem como objetivo principal o desenvolvimento de uma metodologia de estabilização de processos voltada às empresas de manufatura utilizando ferramentas de controle de qualidade. Sua importância está em apresentar uma metodologia que auxilie as empresas na obtenção de melhorias significativas em qualidade e produtividade. O método de trabalho utilizado envolveu as etapas de revisão da literatura, acompanhamento e análise da implantação de uma metodologia de estabilização de processos em uma empresa siderúrgica e, finalmente, proposta e discussão de uma nova metodologia de estabilização de processos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As modificações do cenário mundial, a formação de blocos econômicos e a abertura dos mercados nacionais têm acirrado a concorrência entre as empresas dos diferentes setores da economia. Neste contexto, nota-se a preocupação das empresas brasileiras em repensarem suas formas de gestão e produção. A cadeia produtiva do leite no Brasil, desde o início dos anos 90, vem passando por inúmeras mudanças estruturais devido à desregulamentação do mercado, à abertura comercial e à estabilização da economia brasileira, mudanças estas que têm provocado profundas transformações no setor. Este estudo tem como objetivo apresentar as formas de relacionamento, de gestão e de organização da produção que as empresas e cooperativas de leite, no Rio Grande do Sul, estão implementando para responder as exigências desse ambiente competitivo. Outros aspectos estudados dizem respeito ao fluxo logístico, fluxo de informações e as transações entre os agentes. Foram estudadas cinco empresas representando 65% da produção de leite sob inspeção no Estado. Os elementos fundamentais desta análise são: a gestão da cadeia de suprimentos, o relacionamento entre os elos da cadeia de suprimentos e a configuração que esta está assumindo. Com base nas análises apresentadas, verificou-se que as duas pequenas empresas privilegiam a integração vertical em suas atividades de suprimento, as duas médias e a grande nacional adotam relações de cooperação interfirmas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho analisamos processos estocásticos com decaimento polinomial (também chamado hiperbólico) da função de autocorrelação. Nosso estudo tem enfoque nas classes dos Processos ARFIMA e dos Processos obtidos à partir de iterações da transformação de Manneville-Pomeau. Os objetivos principais são comparar diversos métodos de estimação para o parâmetro fracionário do processo ARFIMA, nas situações de estacionariedade e não estacionariedade e, além disso, obter resultados similares para o parâmetro do processo de Manneville-Pomeau. Entre os diversos métodos de estimação para os parâmetros destes dois processos destacamos aquele baseado na teoria de wavelets por ser aquele que teve o melhor desempenho.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação versa sobre índices de avaliação de processo nas suas abordagens univariada e multivariada. Analisa-se a utilização da Análise de Componentes Principais (ACP) como ferramenta no desenvolvimento de índices capazes de avaliar processos multivariados. O trabalho apresenta uma revisão teórica sobre os índices univariados de aplicação mais comum na indústria (CP/PP , CPK/PPK , CPM/PPM e CPMK/PPMK), o índice multivariado MCpm e sobre os índices MCP , MCPK , MCPM e MCPMK , associados a ACP. Os índices de avaliação de processo são analisados quanto à sua adequação ao uso, através de um estudo de caso na indústria de componentes automotivos. Para tanto, examina-se o processo de fabricação de um componente do freio de veículos médios e pesados, denominado spider, em que doze variáveis de processo são controladas por meio de controle estatístico de processo. Através do estudo de caso, faz-se uma comparação entre os resultados dos índices univariados e multivariados; pressupõe-se que através da Análise de Componentes Principais poder-se-á concluir sobre a capacidade e o desempenho de processos multivariados. Por fim, a partir da análise univariada dos componentes principais, apresenta-se uma técnica complementar para quantificar a contribuição das variáveis controladas à variabilidade de processos multivariados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho analisamos alguns processos com longa dependência sazonais, denotados por SARFIMA(0,D, 0)s, onde s é a sazonalidade. Os estudos de estimação e previsão estão baseados em simulações de Monte Carlo para diferentes tamanhos amostrais e diferentes sazonalidades. Para estimar o parâmetro D de diferenciação sazonal utilizamos os estimadores propostos por Geweke e Porter-Hudak (1983), Reisen (1994) e Fox e Taqqu (1986). Para os dois primeiros procedimentos de estimação consideramos seis diferentes maneiras de compor o número de regressores necessários na análise de regressão, com o intuito de melhor comparar seus desempenhos. Apresentamos um estudo sobre previsão h-passos à frente utilizando os processos SARFIMA(0,D, 0)s no qual analisamos o erro de previsão, as variâncias teórica e amostral, o vício, o pervício e o erro quadrático médio.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A gestão assistencial, cada vez mais, assume a responsabilidade integral do desempenho dos serviços e/ou unidades hospitalares, passando a responder não somente pelo desempenho assistencial como também pelo econômico. Em conseqüência, há maior compreensão do processo e dos recursos consumidos. Assim, os indicadores assistenciais (tempo médio de permanência, taxas de infecção, taxas de óbito) passam a ser as causas mais óbvias e verdadeiramente afins para explicar e revestir os valores econômicos. Todavia, ela necessita de um modelo administrativo que a norteie, possibilitando assim, um gerenciamento sistematizado, científico e qualificado, que atinja as metas traçadas, refletidas nos indicadores de resultado da qualidade assistencial e econômica. Este trabalho teve como objetivo desenvolver um modelo integrado ao Activity-Based Management (ABM) para melhor analisar a eficácia em Serviços de Emergência, buscando através do mapeamento dos processos e custeio das principais atividades, propor o gerenciamento dos Protocolos Clínicos e das Intervenções Terapêuticas - Therapeutic lntervention Scoring System (TISS) pelo método ABM. O desenvolvimento do modelo deu-se em duas etapas: I°) Identificação dos principais serviços prestados e mapeamento dos processos e principais atividades do Plantão Médico do Hospital Mãe de Deus, Porto Alegre -RS; 2°) Desdobramento da análise de Eficiência e Eficácia através de um sistema de informações, onde as entradas consideradas foram os processos, subprocessos e atividades mapeadas e custeadas pelo método Activity- Based Costing (ABe); os processadores foram os protocolos clínicos (ABM estratégico), as rotinas, o TISS e a estatística descritiva (ABM operacional); resultando na saída do sistema a análise da Eficácia (qualidade, tempo e custo) gerando relatórios da Eficácia Assistencial. Considerando-se que na saúde, mesmo contando com a utilização dos melhores recursos e tempos hábeis, existe a probabilidade de desfechos insatisfatórios, o modelo assumiu que para análise da qualidade, a avaliação está embasada num todo, onde se somam basicamente o tempo ideal preconizado para cada situação e a expectativa da utilização otimizada dos recursos (mão-de-obra, materiais, medicamentos, exames e equipamentos). Para análise dos tempos, considerou-se as evidências da obtenção de melhores resultados clínicos. Assim sendo, toda vez que os tempos forem além do preconizado pelos protocolos e rotinas, haverá ineficácia no processo, pois os objetivos assistenciais dos desfechos clínicos serão perturbados. E por fim, na análise dos custos, foram considerados ao mesmo tempo o meio e o fim da quantificação de ociosidade ou desperdício e da qualidade assistencial respectivamente. Fazer as coisas que devem ser feitas, com qualidade a custo menor, proporciona perspectivas de eficácia ao encontro dos objetivos da organização. Como resultados, pode-se constatar que os protocolos clínicos e as intervenções pelo TISS integrados ao ABM e com o uso da estatística descritiva, muito embora não sejam fórmulas rígidas a serem seguidas, mostraram indiscutivelmente a eficácia e a eficiência do processos assistencial, respeitadas as variabilidades de condutas e utilização de recursos explicáveis pela diversidade das doenças.