964 resultados para Decisões
Resumo:
Neste estudo, de caráter etnográfico, foi investigado o processo participativo enquanto tomada de decisão e condição para a construção do conhecimento no processo ensino-aprendizagem que ocorre na escola e especialmente no interior da sala de aula. Partindo de experiências participativas com os alunos, o autor (pesquisador), entende que é possível proporcionar condições para que os alunos participem ativa e efetivamente da construção de sua aprendizagem, e portanto, da construção do conhecimento. Neste trabalho dissertativo, fica claro que a participação ativa e efetiva do aluno no processo ensino-aprendizagem, só acontece, se for possível sua decisão a níveis de planejamento, de execução e de avaliação. Através da pesquisa de campo (observação participante e entrevistas), foi mostrada a compreensão que os sujeitos da pesquisa possuem sobre o significado da participação do aluno no processo ensino-aprendizagem. Este trabalho mostrou que os professores observados e entrevistados possuem um entendimento apolítico do que seja participar, e os alunos, possuem um desejo latente de participarem, de tomarem decisões significativas a níveis de planejamento, de execução e de avaliação. Na construção deste trabalho dissertativo, fica evidente que a escola precisa desenvolver o germe da participação, para que haja produção do conhecimento e para o desenvolvimento da competência política do aluno enquanto cidadão. É fundamental, à escola e aos/às professores/as, não só ensinar a participação e a democracia, mas ensinar pela participação e pela democracia.
Resumo:
Esta pesquisa tem como tema o estudo das variáveis analisadas pelos decisores durante o processo de tomada de decisão. A escolha do tema justifica-se pela importância da tomada de decisão nas organizações, e pela necessidade cada vez maior de que as decisões sejam tomadas rapidamente e sem expor a empresa a riscos em demasia. Neste contexto, mapear o que os decisores consideram ao decidir, o que lhes parece importante e mesmo o que consideram secundário ou irrelevante, pode auxiliar outros decisores em diferentes decisões. Isto porque estes poderão mais facilmente selecionar as informações essenciais sobre somente os itens chave, sem gastar tempo com os dispensáveis ou sem valor agregado para determinada decisão. Sendo assim, o foco da pesquisa é definir um conjunto de variáveis que os decisores consideram essenciais ao tomarem decisões nas diversas áreas de gestão, elencando-as por incidência e verificando as diferenças entre as mesmas. Isto permitirá compreender os decisores quanto às suas necessidades de suporte ao processo decisório, constituindo um referencial para confrontar a novas situações. Através de uma survey, foram coletados dados via entrevistas e correio em trinta empresas gaúchas do setor industrial alimentar de médio e grande porte, localizadas em quase todas as regiões geográficas do estado. Os respondentes foram gerentes ou diretores destas empresas, que responderam a um conjunto de questões abertas simulando situações de decisão sobre um conjunto de assuntos. A partir da análise qualitativa e quantitativa dos dados coletados, chegou-se ao conjunto de variáveis consideradas pelos decisores como essenciais, ou seja, que deveriam ser preferencialmente consideradas na tomada de decisão, e elencou-se essas variáveis por área funcional da empresa, complementando o referencial.
Resumo:
A pesquisa em satisfação do consumidor se constituiu, nas últimas duas décadas, em uma das mais prolíficas correntes de pesquisa em comportamento do consumidor. Entre os diversos motivos que levaram a este crescimento, destaca-se a grande importância deste tipo de pesquisa para as decisões referentes a rentabilidade das empresas. Academicamente, esta linha de pesquisa gerou novas áreas de estudo, entre os quais o da insatisfação, onde esta dissertação se enquadra. Esta pesquisa consistiu na realização de um estudo exploratório da Insatisfação dos Consumidores com o Serviço de Assistências Técnicas de Autorizadas de Automóveis, investigando as causas, o nível e as conseqüências da insatisfação destes consumidores. Este trabalho foi realizado na cidade de Porto Alegre, em 1999. Foram feitos cruzamentos entre estes dados, e com o perfil sócio-demográfico dos consumidores. Entre as conclusões, encontram-se os atributos mais importantes para a insatisfação dos consumidores, a viabilidade do método utilizado para pesquisa de insatisfação e sugestões para os executivos do ramo evitarem a insatisfação de seus clientes.
Resumo:
As ações decorrentes das decisões estratégicas têm seu impacto num horizonte de tempo relativamente longo. Por vezes as decisões estratégicas são tomadas com base em análises subjetivas, ou em percepções de quem conduz a empresa. Neste trabalho procura-se identificar quais são os critérios importantes no processo de comercialização de equipamentos de refrigeração de grande porte, e saber qual o desempenho da empresa Springer Carrier nestes mesmos critérios. Foi realizada uma revisão bibliográfica buscando a identificação de atributos competitivos, a elaboração e implementação de uma pesquisa destes atributos e, por fim, a elaboração de uma Matriz Importância x Desempenho. Os resultados destacam a importância da dimensão competitiva confiabilidade. Tanto confiabilidade de entrega do equipamento, como confiabilidade de funcionamento foram destacados pelos pesquisados. Além da confiabilidade, foi salientada a importância da dimensão competitiva qualidade, pelo destaque dado ao atributo eficiência energética. Além disso, um resultado paralelo, decorrente do processo de pesquisa, traz a possibilidade de uma variação na metodologia proposta por Slack para a determinação da importância dos atributos.
Resumo:
O presente trabalho pretende fazer um estudo sobre as estratégias adotadas pelos frigoríficos e abatedouros da Região Central do estado do Rio Grande do Sul. Para caracterizar o tipo de estratégia competitiva utilizada pelos mesmos, lançou-se mão de dados secundários para conhecer-se os métodos utilizados pelos produtores de matériaprima quanto à reprodução, desenvolvimento e terminação; abate e industrialização; comercialização; condições de rastreabilidade do produto oferecido ao consumidor. Para os dados primários foi utilizado um questionário onde os empresários refletiram sobre os fatores em que se baseiam para a tomada de decisões, para identificar os tipos de relações estabelecidos entre as diversas empresas e os pontos convergentes e divergentes existentes na bovinocultura de corte. A pesquisa mostrou que há necessidade de uma maior conscientização dos administradores das empresas que fazem parte da bovinocultura de corte, do setor de transformação, da utilização de ferramentas de gerenciamento para uma melhoria do processo decisório e melhoria na formulação de suas estratégias de atuação. Os frigoríficos e abatedouros da Região Central do Estado não possuem uma estratégia comum, não têm um objetivo futuro constituído como uma política de atuação para o ramo. Cada empresa adota a sua estratégia sem um vínculo com uma política específica. Outro fator observado é quanto ao estabelecimento de relações comerciais – a montante e à jusante - visando um melhor desempenho de todo o grupo empresarial, evitando que sejam tomadas decisões isoladas que possam aviltar a performance das empresas e facilitando o estabelecimento de políticas de desenvolvimento para o setor beneficiando todo o segmento que atua na bovinocultura de corte na Região Central do Estado.
Resumo:
A simulação é uma das ferramentas mais utilizadas para a aplicação da análise sistêmica nos mais diversos estudos. Ao longo do tempo, vários modelos foram desenvolvidos para representar sistemas de recursos hídricos, utilizando a simulação. Dentre esses modelos, está o Propagar MOO, que simula a propagação de vazões em uma bacia hidrográfica, submetida à decisões operacionais de suprimento de demandas e de operação de reservatórios, introduzidas pelo usuário através de rotinas escritas na linguagem de programação Pascal Script. A utilização eficiente dessas rotinas permite ao usuário ampliar a capacidade e flexibilidade do modelo na representação de um sistema hídrico. Com o objetivo de contribuir na ampliação da flexibilidade do modelo Propagar MOO e de sua aplicabilidade à modelagem de sistemas de recursos hídricos em geral, bem como facilitar o estudo da linguagem de programação Pascal Script e motivar os profissionais da área no desenvolvimento de novas rotinas aplicadas ao modelo, foram implementadas, através do presente trabalho, rotinas genéricas contendo estratégias de planejamento do uso da água e de operação de reservatórios, bem como ferramentas para analisar seus resultados. Para ampliar essa contribuição, foi aprimorada a possibilidade de simulação da geração de energia hidrelétrica em pontos de uma rede hidrográfica, com a criação de novas ferramentas para esse fim, na estrutura interna do modelo. Por fim, para que o próprio usuário pudesse construir ferramentas para auxiliar na verificação dos resultados obtidos nas simulações, esse estudo apresenta a implementação de rotinas de uso geral para servir como exemplos de ferramentas de análise de dados.
Resumo:
O uso da recuperação de processos para obter sistemas computacionais tolerantes a falhas não é um assunto novo. Entretanto, a discussão de algoritmos para a recuperação em sistemas distribuídos, notadamente aqueles que se enquadram na categoria assíncrona, ainda encontra pontos em aberto. Este é o contexto do presente trabalho. Este trabalho apresenta um novo algoritmo de recuperação por retorno, em sistemas distribuídos. O algoritmo proposto é do tipo coordenado, e seus mecanismos componentes determinam que seja classificado como um algoritmo baseado em índices (index-based coordinated). Desta forma, a tolerância a falhas é obtida através do estabelecimento de linhas de recuperação, o que possibilita um retorno consideravelmente rápido, em caso de falha. Seu desenvolvimento foi feito com o objetivo de minimizar o impacto ao desempenho do sistema, tanto quando este estiver operando livre de falhas como quando ocorrerem as falhas. Além disso, os mecanismos componentes do algoritmo foram escolhidos visando facilitar a futura tarefa de implementação. A satisfação dos objetivos decorre principalmente de uma importante característica assegurada pelos mecanismos propostos no algoritmo: o não bloqueio da aplicação, enquanto é estabelecida uma nova linha de recuperação. Esta característica, associada ao rápido retorno, oferece uma solução promissora, em termos de eficiência, para a recuperação, um vez que o impacto no desempenho tende a ser reduzido, quando o sistema encontra-se operando em ambas condições: livre de erros ou sob falha. Diferentemente da maioria dos algoritmos coordenados encontrados na literatura, o algoritmo proposto neste trabalho trata as mensagens perdidas. A partir da análise das características das aplicações, bem como dos canais de comunicação, quando estes interagem com o algoritmo de recuperação, concluiu-se que os procedimentos usados para recuperação de processos devem prever o tratamento desta categoria de mensagens. Assim, o algoritmo proposto foi incrementado com um mecanismo para tratamento das mensagens que têm o potencial de tornarem-se perdidas, em caso de retorno, ou seja, evita a existência de mensagens perdidas. Uma das decisões tomadas durante o desenvolvimento do algoritmo foi a de permitir um processamento não determinístico. Na realidade, esta escolha visou o aumento do espectro das falhas que poderiam ser tratadas pela recuperação. Tradicionalmente, a recuperação por retorno é empregada para tolerar falhas temporárias. Entretanto, a diversidade de ambiente, freqüente nos SDs, também pode ser usada para tolerar algumas falhas permanentes. Para verificar a correção do algoritmo, decidiu-se empregar um formalismo existente. Assim, a lógica temporal de Lamport (TLA) foi usada na especificação dos mecanismos do algoritmo bem como em sua demonstração de correção. O tratamento referente às mensagens perdidas, atrav´es do uso de mensagens de resposta, associado com o uso de uma lógica temporal, levou à necessidade de rever os critérios de consistência. Esta revisão gerou um conjunto de fórmulas de consistência ajustadas à existência de mensagens de diferentes classes: mensagens da aplicação e mensagens de resposta.
Resumo:
Esta dissertação apresenta uma abordagem sistemática para garantir a estabilidade dos resultados dos processos e, assim, o alcance das metas de produção e qualidade. Essa abordagem contempla oito etapas principais: (I) identificação do processo crítico, (iI) tratamento do processo crítico, (iil) padronização operacional, (iv) treinamento operacional, (v) operação conforme o padrão, (VI) tratamento de anomalias, (vil) auditoria de padrão e (viiI) controle estatístico de processo. A metodologia proposta, chamada de "Estabilização de Processo", se propõe a garantir a previsibilidade dos resultados dos processos operacionais de maneira focada, através da identificação dos processos críticos, de seus indicadores, de suas metas-padrão e da manutenção do seu resultado numa faixa de domínio que atenda às necessidades dos clientes. As principais vantagens do método são: (I) um método simples e organizado de atividades corretivas e preventivas, (if) a abordagem estatística, que fornece uma base sólida para a tomada de decisões e (iil) o gerenciamento do processo da rotina com foco no par operador-tarefa. Por fim, é apresentado e discutido um estudo de caso em uma indústria siderúrgica, que contribui para a validação do método proposto.
Resumo:
Este trabalho identifica os reflexos das reestruturações organizacionais implantadas em empresas de pequeno, médio e grande porte, pertencentes ao setor Metal-Mecânico, de Caxias do Sul, no perfil da liderança intermediária no que se refere a sua função de elo entre o capital e o trabalho. Por meio de uma investigação de natureza qualitativa, identifica-se, numa primeira fase, a visão da direção das empresas estudadas, sobre qual o perfil técnico e gerencial desejado da liderança intermediária, no que se refere a conhecimentos, habilidades e atitudes. Numa segunda fase, são entrevistados os próprios lideres intermediários, destas empresas, com o objetivo de verificar suas percepções sobre o perfil do líder, após as reestruturações implantadas, e de comparar com as expectativas da direção das empresas. Busca-se, com isto, estabelecer o vínculo entre estas percepções e os modelos teóricos sobre liderança com a intenção de identificar com qual destas abordagens a orientação dos entrevistados mais se aproxima. Conclui-se que há reflexos neste perfil, mas não acontecem somente devido às reestruturações organizacionais, mas, também do ambiente de trabalho e do quanto a direção das empresas assimilou a necessidade desta mudança, permitindo aos líderes uma abertura para manifestações que contribuam nas decisões estratégicas da empresa.
Resumo:
A Descoberta de Conhecimento em Banco de Dados (DCBD) é uma nova área de pesquisa que envolve o processo de extração de conhecimento útil implícito em grandes bases de dados. Existem várias metodologias para a realização de um processo de DCBD cuja essência consiste basicamente nas fases de entendimento do domínio do problema, pré-processamento, mineração de dados e pós-processamento. Na literatura sobre o assunto existem muitos trabalhos a respeito de mineração de dados, porém pouco se encontra sobre o processo de pré-processamento. Assim, o objetivo deste trabalho consiste no estudo do pré-processamento, já que é a fase que consome a maior parte do tempo e esforço de todo o processo de DCBD pois envolve operações de entendimento, seleção, limpeza e transformação de dados. Muitas vezes, essas operações precisam ser repetidas de modo a aprimorar a qualidade dos dados e, conseqüentemente, melhorar também a acurácia e eficiência do processo de mineração. A estrutura do trabalho abrange cinco capítulos. Inicialmente, apresenta-se a introdução e motivação para trabalho, juntamente com os objetivos e a metodologia utilizada. No segundo capítulo são abordadas metodologias para o processo de DCBD destacando-se CRISP-DM e a proposta por Fayyad, Piatetsky-Shapiro e Smyth. No terceiro capítulo são apresentadas as sub-fases da fase de pré-processamento contemplando-se entendimento, seleção, limpeza e transformação de dados, bem como os principais métodos e técnicas relacionados às mesmas. Já no quarto capítulo são descritos os experimentos realizados sobre uma base de dados real. Finalmente, no quinto capítulo são apresentadas as considerações finais sobre pré-processamento no processo de DCBD, apontando as dificuldades encontradas na prática, contribuições do presente trabalho e pretensões da continuidade do mesmo. Considera-se como principais contribuições deste trabalho a apresentação de métodos e técnicas de pré-processamento existentes, a comprovação da importância da interatividade com o especialista do domínio ao longo de todo o processo de DCBD, mas principalmente nas tomadas de decisões da fase de pré-processamento, bem como as sugestões de como realizar um pré-processamento sobre uma base de dados real.
Resumo:
A mineração de dados constitui o processo de descoberta de conhecimento interessante, com a utilização de métodos e técnicas que permitem analisar grandes conjuntos de dados para a extração de informação previamente desconhecida, válida e que gera ações úteis, de grande ajuda para a tomada de decisões estratégicas. Dentre as tarefas de mineração de dados, existem aquelas que realizam aprendizado não-supervisionado, o qual é aplicado em bases de dados não-classificados, em que o algoritmo extrai as características dos dados fornecidos e os agrupa em classes. Geralmente, o aprendizado não-supervisionado é aplicado em tarefas de agrupamento, que consistem em agrupar os dados de bancos de dados volumosos, com diferentes tipos de dados em classes ou grupos de objetos que são similares dentro de um mesmo grupo e dissimilares em diferentes grupos desses bancos de dados, de acordo com alguma medida de similaridade. Os agrupamentos são usados como ponto de partida para futuras investigações. Este trabalho explora, mediante a realização de um estudo de caso, o uso de agrupamento como tarefa de mineração de dados que realiza aprendizado nãosupervisionado, para avaliar a adequação desta tecnologia em uma base de dados real da área de saúde. Agrupamento é um tema ativo em pesquisas da área pelo seu potencial de aplicação em problemas práticos. O cenário da aplicação é o Sistema de Informações Hospitalares do SUS, sob a gestão da Secretaria Estadual de Saúde do Rio Grande do Sul. Mensalmente, o pagamento de um certo número de internações é bloqueado, uma vez que a cobrança de internações hospitalares é submetida a normas do SUS e a critérios técnicos de bloqueio estabelecidos pela Auditoria Médica da SES para verificar a ocorrência de algum tipo de impropriedade na cobrança dos procedimentos realizados nessas internações hospitalares. A análise de agrupamento foi utilizada para identificar perfis de comportamentos ou tendências nas internações hospitalares e avaliar desvios ou outliers em relação a essas tendências e, com isso, descobrir padrões interessantes que auxiliassem na otimização do trabalho dos auditores médicos da SES. Buscou-se ainda compreender as diferentes configurações de parâmetros oferecidos pela ferramenta escolhida para a mineração de dados, o IBM Intelligent Miner, e o mapeamento de uma metodologia de mineração de dados, o CRISP-DM, para o contexto específico deste estudo de caso. Os resultados deste estudo demonstram possibilidades de criação e melhora dos critérios técnicos de bloqueio das internações hospitalares que permitem a otimização do trabalho de auditores médicos da SES. Houve ainda ganhos na compreensão da tecnologia de mineração de dados com a utilização de agrupamento no que se refere ao uso de uma ferramenta e de uma metodologia de mineração de dados, em que erros e acertos evidenciam os cuidados que devem ser tomados em aplicações dessa tecnologia, além de contribuírem para o seu aperfeiçoamento.
Resumo:
Esta pesquisa aborda o profissionalização de uma empresa familiar, situada no Planalto Norte de Santa Catarina, a Condor S.A., que em 1997, transferiu todos os executivos familiares para o Conselho de Administração, criado na ocasião para fiscalizar e dar suporte em termos de estratégia à nova diretoria executiva, não familiar, para gerir a empresa. O objetivo da pesquisa foi de identificar e avaliar as mudanças havidas nas estruturas e nos processos da Condor S.A. ocorridas após a profissionalização. A Condor é uma empresa familiar há mais de 70 anos. As empresas familiares têm seus pontos positivos, mas os negativos destacam-se quando a empresa começa a sentir os problemas de sobrevivência. As características próprias de cada empresa familiar, se não bem conduzidas afetarão a sobrevivência da empresa na atual e dinâmica competitividade. Assim, a importância de estudar as transformações possíveis numa empresa familiar antiga, da 3ª e 4ª gerações, frente à profissionalização da diretoria executiva e buscar as nuances ocorridas nesse processo. Pela análise da Condor S.A. concluiu-se que ocorreram diversas mudanças que contribuíram de forma positiva na gestão dessa empresa e que a forma escolhida para a profissionalização também se constituiu numa opção que está viabilizando a manutenção da empresa. Verificou-se, também, que os profissionais contratados que não conseguem atender aos anseios da empresa a curto prazo permanecem por pouco tempo. Esses profissionais, por pretenderem fazer uma mudança radical, não se atendo à cultura da empresa, normalmente não se entrosam na organização, e geram um fator de insucesso para a empresa e para a sua carreira. Dentre as principais mudanças organizacionais que ocorreram e que causaram impacto na sua gestão, pode-se destacar: a descentralização e a agilidade nas decisões; as metas e objetivos claros disseminados por toda a organização; maior transparência no contado da direção com todos os funcionários; a cobrança dos resultados pelas metas traçadas e não de forma subjetiva como ocorria anteriormente; a administração mais racional e objetiva e o planejamento estratégico.
Resumo:
Sempre houve, na humanidade, incertezas quanto ao futuro. Por parte dos investidores, incertezas e riscos nos investimentos. Outros acreditam que os mercados financeiros operam de forma eficiente e, portanto, para reduzirem o risco e minimizarem as perdas tentam fazer regressão à média, ou seja, tomam decisões pensando que os fatos voltarão ao “normal”. Neste sentido, o presente trabalho procura discutir uma nova metodologia, proposta por Haugen (2000), e denominada de Modelo de Fator de Retorno Esperado, utilizando-se de variáveis fundamentalistas. Contudo, no dia-a-dia, os erros cometidos, a ambigüidade dos fatos e, principalmente, o poder das emoções humanas - “efeito manada”, podem rapidamente destruir um modelo. Os mercados são bem menos eficientes na prática do que quando se estudam ou se tenta aplicar as teorias. Por isso, os modelo aqui estudados, o Modelo de Fator do Retorno Esperado e, secundariamente, o Modelo de Precificação de Ativos(CAPM) e a Teoria de Preços por Arbitragem(APT), diferem muito entre si. Este trabalho teve como objetivo principal avaliar o desempenho do Modelo de Fator de Retorno Esperado. Assim, o trabalho mostrou que o Modelo de Fator de Retorno Esperado, ao ser utilizado na composição de carteiras de investimento, é eficiente. Carteiras montadas de acordo com este modelo superaram o desempenho do Índice principal do mercado acionário brasileiro. Pôde-se constatar que outras variáveis, além do beta, aqui denominadas de fundamentalistas, podem explicar a rentabilidade esperada de um ativo. São elas: Valor de Mercado (VM), Indicador de Preço/Lucro (PL), o índice Preço de Mercado/Valor Patrimonial (PV), o Retorno sobre o Patrimônio líquido (ROE), a Liquidez em Bolsa(Liq) e o Beta do Mercado (BETA).
Resumo:
A incorporação de restrições institucionais para a gestão da política fiscal pode explicar resultados sub-ótimos, como déficits fiscais elevados e a demora para o processo de ajustamento. Uma dessas restrições pode ser compreendida como o fato de que a política fiscal não é o resultado apenas das decisões de um formulador de política econômica. Quando se analisa o processo de decisão da política fiscal como o resultado de um processo de conflito de interesses entre agentes ou grupos, então resultados sub-ótimos podem ser explicados sem qualquer apelo a irracionalidade ou ao comportamento não benevolente de uma autoridade fiscal. A modelagem da política fiscal sob a hipótese de fragmentação de governo pode ser feita com mais de uma forma. Nesta tese, com o objetivo de analisar o caso brasileiro recente, primeiro utilizaram-se jogos dinâmicos – onde uma autoridade fiscal central joga com outros agentes que afetam o resultado da política fiscal e que têm funções utilidade distintas da primeira. Em jogos desse tipo pode-se demonstrar a eficiência de mecanismos de punição e incentivo para o cumprimento de uma determinada meta fiscal. Posteriormente, foram feitos testes para observar o padrão de ajustamento fiscal entre maio de 1992 e maio de 2002, no Brasil. Como a natureza do ajustamento fiscal, nos modelos com fragmentação de governo, é infrequente, a aplicação da metodologia de mudança de regime markoviano pareceu ser a mais apropriada. Os resultados obtidos indicaram um padrão de ajustamento esperado em relação às mudanças nos regimes do déficit primário, da dívida pública e ao impacto dos choques externos.
Resumo:
Essa dissertação aborda o tema simulação de serviços. É apresentada abordagem para estudo de empresas prestadoras de serviços a partir da ótica de avaliação e otimização de produtividade, custos operacionais e lead-time. A abordagem proposta foi desenvolvida com base em estudo de caso realizado junto à empresa Scherer Informática, que atua na área de manutenção de computadores. Os cenários gerados e as simulações dos serviços prestados foram realizados com o suporte de software específico para a modelagem de serviços: o Servicemodel. O estudo possibilitou a empresa conhecer: (i) o melhor dimensionamento das equipes de front office e back office, (ii) a melhor distribuição dos funcionários, que conduz a maior produtividade, (iii) a melhor qualificação da equipe, que minimiza custos operacionais, e, (iv) a análise do lead-time, que permitiu identificar as operações críticas e estabelecer um plano de melhorias visando agilizar o atendimento ao cliente. As etapas observadas no estudo de caso constituem uma abordagem para a otimização de serviços, que considera produtividade, custos operacionais e lead-time. Devido à generalidade das etapas propostas, a abordagem pode ser adaptada para o uso em outras empresas, subsidiando decisões relativas à melhoria dos processos de prestação de serviços.