891 resultados para supply lead time


Relevância:

80.00% 80.00%

Publicador:

Resumo:

This paper describes the development and basic evaluation of decadal predictions produced using the HiGEM coupled climate model. HiGEM is a higher resolution version of the HadGEM1 Met Office Unified Model. The horizontal resolution in HiGEM has been increased to 1.25◦ × 0.83◦ in longitude and latitude for the atmosphere, and 1/3◦ × 1/3◦ globally for the ocean. The HiGEM decadal predictions are initialised using an anomaly assimilation scheme that relaxes anomalies of ocean temperature and salinity to observed anomalies. 10 year hindcasts are produced for 10 start dates (1960, 1965,..., 2000, 2005). To determine the relative contributions to prediction skill from initial conditions and external forcing, the HiGEM decadal predictions are compared to uninitialised HiGEM transient experiments. The HiGEM decadal predictions have substantial skill for predictions of annual mean surface air temperature and 100 m upper ocean temperature. For lead times up to 10 years, anomaly correlations (ACC) over large areas of the North Atlantic Ocean, the Western Pacific Ocean and the Indian Ocean exceed values of 0.6. Initialisation of the HiGEM decadal predictions significantly increases skill over regions of the Atlantic Ocean,the Maritime Continent and regions of the subtropical North and South Pacific Ocean. In particular, HiGEM produces skillful predictions of the North Atlantic subpolar gyre for up to 4 years lead time (with ACC > 0.7), which are significantly larger than the uninitialised HiGEM transient experiments.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The main idea of this research to solve the problem of inventory management for the paper industry SPM PVT limited. The aim of this research was to find a methodology by which the inventory of raw material could be kept at minimum level by means of buffer stock level.The main objective then lies in finding the minimum level of buffer stock according to daily consumption of raw material, finding the Economic Order Quantity (EOQ) reorders point and how much order will be placed in a year to control the shortage of raw material.In this project, we discuss continuous review model (Deterministic EOQ models) that includes the probabilistic demand directly in the formulation. According to the formula, we see the reorder point and the order up to model. The problem was tackled mathematically as well as simulation modeling was used where mathematically tractable solution was not possible.The simulation modeling was done by Awesim software for developing the simulation network. This simulation network has the ability to predict the buffer stock level based on variable consumption of raw material and lead-time. The data collection for this simulation network is taken from the industrial engineering personnel and the departmental studies of the concerned factory. At the end, we find the optimum level of order quantity, reorder point and order days.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The capacitor test process at ABB Capacitors in Ludvika must be improved to meet future demands for high voltage products. To find a solution to how to improve the test process, an investigation was performed to establish which parts of the process are used and how they operate. Several parts which can improves the process were identified. One of them was selected to be improved in correlation with the subject, mechanical engineering. Four concepts were generated and decision matrixes were used to systematically select the best concept. By improving the process several benefits has been added to the process. More units are able to be tested and lead time is reduced. As the lead time is reduced the cost for each unit is reduced, workers will work less hours for the same amount of tested units, future work to further improve the process is also identified. The selected concept was concept 1, the sway stop concept. This concept is used to reduce the sway of the capacitors as they have entered the test facility, the box. By improving this part of the test process a time saving of 20 seconds per unit can be achieved, equivalent to 7% time reduction. This can be compared to an additional 1400 units each year.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Modular product architectures have generated numerous benefits for companies in terms of cost, lead-time and quality. The defined interfaces and the module’s properties decrease the effort to develop new product variants, and provide an opportunity to perform parallel tasks in design, manufacturing and assembly. The background of this thesis is that companies perform verifications (tests, inspections and controls) of products late, when most of the parts have been assembled. This extends the lead-time to delivery and ruins benefits from a modular product architecture; specifically when the verifications are extensive and the frequency of detected defects is high. Due to the number of product variants obtained from the modular product architecture, verifications must handle a wide range of equipment, instructions and goal values to ensure that high quality products can be delivered. As a result, the total benefits from a modular product architecture are difficult to achieve. This thesis describes a method for planning and performing verifications within a modular product architecture. The method supports companies by utilizing the defined modules for verifications already at module level, so called MPV (Module Property Verification). With MPV, defects are detected at an earlier point, compared to verification of a complete product, and the number of verifications is decreased. The MPV method is built up of three phases. In Phase A, candidate modules are evaluated on the basis of costs and lead-time of the verifications and the repair of defects. An MPV-index is obtained which quantifies the module and indicates if the module should be verified at product level or by MPV. In Phase B, the interface interaction between the modules is evaluated, as well as the distribution of properties among the modules. The purpose is to evaluate the extent to which supplementary verifications at product level is needed. Phase C supports a selection of the final verification strategy. The cost and lead-time for the supplementary verifications are considered together with the results from Phase A and B. The MPV method is based on a set of qualitative and quantitative measures and tools which provide an overview and support the achievement of cost and time efficient company specific verifications. A practical application in industry shows how the MPV method can be used, and the subsequent benefits

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The desire to conquer markets through advanced product design and trendy business strategies are still predominant approaches in industry today. In fact, product development has acquired an ever more central role in the strategic planning of companies, and it has extended its influence to R&D funding levels as well. It is not surprising that many national R&D project frameworks within the EU today are dominated by product development topics, leaving production engineering, robotics, and systems on the sidelines. The reasons may be many but, unfortunately, the link between product development and the production processes they cater for are seldom treated in depth. The issue dealt with in this article relates to how product development is applied in order to attain the required production quality levels a company may desire, as well as how one may counter assembly defects and deviations through quantifiable design approaches. It is recognized that product verifications (tests, inspections, etc.) are necessary, but the application of these tactics often result in lead-time extensions and increased costs. Modular architectures improve this by simplifying the verification of the assembled product at module level. Furthermore, since Design for Assembly (DFA) has shown the possibility to identify defective assemblies, it may be possible to detect potential assembly defects already in the product and module design phase. The intention of this paper is to discuss and describe the link between verifications of modular architectures, defects and design for assembly. The paper is based on literature and case studies; tables and diagrams are included with the intention of increasing understanding of the relation between poor designs, defects and product verifications.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Most simulation textbooks assume that a model can be started in an empty state and the final output will not be affected, so long as the "warm-up period" is excluded from the analysis. In this paper we test this assumption, using a discrete-event model of a existing manufacturing facility. Using a series of model runs with no initial Work in Progress (WIP) and another series of simulation runs with a realistic initial level of WIP, the results can be compared and contrasted. While the results show similar shaped profiles in terms of throughput and lead time, the differences between the curves has important practical implications.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

In this paper, we investigate how to best optimise the level of Production Inventory or Work In Progress (WIP) in a factory. Using a simulation model of the factory, we show that a level of inventory can be optimised by controlling the buffer levels of the key bottleneck workcenters. By firstly identifying the key bottlenecks, and then systematically reducing the maximum buffer level for each bottleneck, results show that the throughput does not drop rapidly from it's high levels until the WIP is halved. Conversely, the production lead time decreases rapidly and levels out around the point of the optimum WIP level.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

In the aftermath of earthquakes, tsunamis, such as the 2011 Great East Japan Tsunami, caused enormous damage around the world. With the extreme disaster events of the past, nations improved disaster preparedness and response through sensors and tsunami early warning systems. Even with system usage, however, governments still need to warn the targeted citizens – who may be anywhere within the vulnerable areas – of predicted tsunami and ordered mass evacuations within a very limited lead time. While social media research is on the rise outside the domain of social networking, very little is written about Twitter use for tsunami early warning. In this research, therefore, we examined the utility of Twitter as a tsunami early warning network, which engages citizens and disaster management agencies in diffusing disaster information. We conducted a social network analysis of Twitter information flows among the central disaster warning agency’s Twitter followers during the 2012 Indonesia Earthquake.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Este trabalho de conclusão tem como tema a Qualidade Seis Sigma e a produção de tintas, com foco no parâmetro viscosidade. O objetivo principal é o estudo da variabilidade da viscosidade das tintas, com vistas à diminuição do número de desvios de viscosidade de lotes de produção e, conseqüentemente, do retrabalho e lead-time fabril. Inicialmente, foi realizada uma revisão bibliográfica sobre a metodologia Seis Sigma, suas principais ferramentas, e sobre os processos de produção de tintas, suas fontes de variabilidade e possibilidadesde melhoria.Na seqüência, foi conduzido o estudo de caso, realizado em uma tradicional fábrica de tintas da grande Porto Alegre. O estudo seguiu as etapas da metodologiaSeis Sigma:definição,mensuração,análise,aprimoramentoe controle. Dos lotes de tinta analisados, 78,5% necessitaram de algum tipo de ajuste de viscosidade.A viscosidadedas tintas, após a etapade completagem,foi, em média, 5,3 vezes maior que a semi-amplitude da tolerância. O tempo médio de ajuste de viscosidade foi de 20 minutos, o dobro do tempo gasto caso fosse feita somente a medição da viscosidade. Analisando-se a viscosidade em segundos, a diferença entre a medição já com o solvente previsto, e a medição logo após a completagem, foi, em média, de 28 segundos. A etapa de acertos de cor e brilho proporciona um aumento médio na viscosidade de cerca de 6 segundos Observou-se que os processos de fabricação não eram estáveis e nem capazes de atender as especificações, sem a etapa de ajustes, sendo o pior processo o em moinho pequeno (l,5P), e o melhor, em processo mistura. O sistema de medição contribuía para a variabilidade da viscosidade e foi melhorado. Outros fatores influentes na variabilidade da viscosidade foram: o fluxo de moagem, a sistemática de lavagem dos moinhos e a instabilidade (aumento) da viscosidade com o tempo. Como etapa final, foram sugeridas melhorias para o processo, na forma de um plano de ação, contemplando todos os fatores de variação identificados.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Essa dissertação aborda o tema simulação de serviços. É apresentada abordagem para estudo de empresas prestadoras de serviços a partir da ótica de avaliação e otimização de produtividade, custos operacionais e lead-time. A abordagem proposta foi desenvolvida com base em estudo de caso realizado junto à empresa Scherer Informática, que atua na área de manutenção de computadores. Os cenários gerados e as simulações dos serviços prestados foram realizados com o suporte de software específico para a modelagem de serviços: o Servicemodel. O estudo possibilitou a empresa conhecer: (i) o melhor dimensionamento das equipes de front office e back office, (ii) a melhor distribuição dos funcionários, que conduz a maior produtividade, (iii) a melhor qualificação da equipe, que minimiza custos operacionais, e, (iv) a análise do lead-time, que permitiu identificar as operações críticas e estabelecer um plano de melhorias visando agilizar o atendimento ao cliente. As etapas observadas no estudo de caso constituem uma abordagem para a otimização de serviços, que considera produtividade, custos operacionais e lead-time. Devido à generalidade das etapas propostas, a abordagem pode ser adaptada para o uso em outras empresas, subsidiando decisões relativas à melhoria dos processos de prestação de serviços.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Sistemas de previsão de cheias podem ser adequadamente utilizados quando o alcance é suficiente, em comparação com o tempo necessário para ações preventivas ou corretivas. Além disso, são fundamentalmente importantes a confiabilidade e a precisão das previsões. Previsões de níveis de inundação são sempre aproximações, e intervalos de confiança não são sempre aplicáveis, especialmente com graus de incerteza altos, o que produz intervalos de confiança muito grandes. Estes intervalos são problemáticos, em presença de níveis fluviais muito altos ou muito baixos. Neste estudo, previsões de níveis de cheia são efetuadas, tanto na forma numérica tradicional quanto na forma de categorias, para as quais utiliza-se um sistema especialista baseado em regras e inferências difusas. Metodologias e procedimentos computacionais para aprendizado, simulação e consulta são idealizados, e então desenvolvidos sob forma de um aplicativo (SELF – Sistema Especialista com uso de Lógica “Fuzzy”), com objetivo de pesquisa e operação. As comparações, com base nos aspectos de utilização para a previsão, de sistemas especialistas difusos e modelos empíricos lineares, revelam forte analogia, apesar das diferenças teóricas fundamentais existentes. As metodologias são aplicadas para previsão na bacia do rio Camaquã (15543 km2), para alcances entre 10 e 48 horas. Dificuldades práticas à aplicação são identificadas, resultando em soluções as quais constituem-se em avanços do conhecimento e da técnica. Previsões, tanto na forma numérica quanto categorizada são executadas com sucesso, com uso dos novos recursos. As avaliações e comparações das previsões são feitas utilizandose um novo grupo de estatísticas, derivadas das freqüências simultâneas de ocorrência de valores observados e preditos na mesma categoria, durante a simulação. Os efeitos da variação da densidade da rede são analisados, verificando-se que sistemas de previsão pluvio-hidrométrica em tempo atual são possíveis, mesmo com pequeno número de postos de aquisição de dados de chuva, para previsões sob forma de categorias difusas.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

O objeto de estudo desta dissertação é a aplicação de ferramentas para o controle da qualidade e melhoria do processo de produção de uma etapa construtiva de edificações residenciais. As ferramentas aplicadas são: i) controle estatístico do processo – CEP, e; ii) dispositivos Poka-Yoke. A etapa construtiva mencionada é a elevação da estrutura de concreto armado. O estudo foi motivado pela necessidade de melhorar o sistema de manufatura de uma empresa construtora de Porto Alegre – RS, com vistas a reduzir o tempo de construção de suas edificações (lead-time de produção). Para tanto, a partir de conceitos teóricos do Sistema Toyota de Produção – STP, analisou-se o processo produtivo atual para a referida etapa construtiva, identificaram-se perdas existentes no processo e foram propostas melhorias. As ferramentas de qualidade CEP e Poka-Yoke enquadram-se dentro dessa perspectiva de melhoria. Através da sua aplicação, pretende-se eliminar algumas das perdas existentes no processo de construção melhorando sua produtividade e a qualidade do produto final. A aplicação do CEP tem como objetivo avaliar a capacidade do fornecedor de concreto de atender às exigências dos consumidores, de acordo com o que é estipulado pelas normas brasileiras de fabricação e aceitação de concreto, sem impor-lhes ônus desnecessário. A avaliação é efetuada através do monitoramento da variabilidade da propriedade que melhor caracteriza a qualidade do concreto, qual seja, a sua resistência à compressão axial. Os dispositivos Poka-Yoke, por sua vez, são aplicados com funções de controle da qualidade e prevenção de defeitos e, como ferramentas auxiliares na melhoria de atividades produtivas.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Este trabalho de conclusão tem como tema a relação entre as especificações de resinas alquídicas e de tintas preparadas com estas resinas, com foco nas características de teor de sólidos e viscosidade, fazendo uso das técnicas projeto de experimentos, superfície de resposta e análise de regressão. O objetivo principal é o estudo dos limites de especificação ideais para a resina alquídica, de forma que os lotes de tinta apresentem propriedades dentro da especificação já ao final do processamento, reduzindo a incidência de lotes fabris com necessidade de ajuste. Como conseqüência, temos redução de retrabalho e lead time fabril, adequação de custo de produtos, maior qualidade intrínseca e maior confiança na sistemática de desenvolvimento, produção e controle de qualidade. Inicialmente, foi realizada uma revisão bibliográfica sobre a tecnologia de tintas e resinas alquídicas, conceitos de controle de qualidade, planejamento de experimentos, análise por superfície de resposta e análise de regressão. Na seqüência, foi conduzido o estudo de caso, realizado na empresa Killing S.A. Tintas e Adesivos, planta localizada na cidade de Novo Hamburgo. Os resultados experimentais indicaram modelos de regressão polinomial válidos para as propriedades avaliadas. Foram tomadas as propriedades teor de sólidos e viscosidade Copo Ford #2 da mistura A+B como parâmetros para análise dos limites de especificação da resina alquídica, onde se comprovou que a variabilidade atualmente permitida é excessiva. A aplicação dos modelos de regressão indicou novos limites de especificação para a resina alquídica, mais estreitos, viabilizando a obtenção de tintas com propriedades especificadas.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Diante do aumento da competição no mercado de edificações habitacionais, o paradigma de produção tradicional da construção apresenta limitações, pois resulta em um elevado índice de desperdícios, com altos custos de produção, baixa qualidade e atrasos na entrega dos produtos. A Produção Enxuta, como um paradigma de produção que busca eliminar os desperdícios para que os custos de produção diminuam, a qualidade dos produtos e a rapidez com que são entregues sejam melhores, apresenta-se com potencial de reduzir as ineficiências da construção. As idéias da Produção Enxuta têm sido introduzidas na construção desde 1993, originando a Construção Enxuta. Apesar de estudos demonstrarem bons resultados na introdução dessas idéias na construção, observa-se que tais esforços têm-se voltado mais para uma implementação isolada e pontual, limitando assim a possibilidade de melhorias ao longo do fluxo de valor. Na tentativa de reverter este quadro, o objetivo principal deste trabalho é visualizar o processo produtivo da construção de modo sistêmico, ou seja, do seu fluxo de valor. E assim, identificar os seus principais problemas e desperdícios e propor ações de melhoria, visando uma implementação sistêmica da Produção Enxuta. Para visualização do fluxo de valor utiliza-se a ferramenta chamada Mapeamento do Fluxo de Valor (MFV). Utilizado na manufatura como forma de iniciar a implementação da Produção Enxuta nas empresas, o MFV possibilita uma visualização sistêmica da produção, relacionando o processo produtivo com os clientes e fornecedores, a identificação dos desperdícios e a proposição de melhorias. Devido às diferenças entre construção e manufatura, foram necessárias adequações no MFV para sua aplicação na construção. O estudo foi realizado em uma construtora de edificações habitacionais de Porto Alegre/RS e em função do longo período de construção, a aplicação do MFV ocorreu somente na etapa da alvenaria. A partir da visualização sistêmica da alvenaria foi identificada uma série de problemas e desperdícios e propostas ações de melhorias, almejando a implementação da Produção Enxuta ao longo do fluxo de valor. Entre as melhorias que se mostraram possíveis tem-se a redução do lead time de produção, um processo produtivo mais fluído, a redução dos estoques, o melhor aproveitamento da mão-de-obra e a melhor interação com os diversos agentes que fazem parte da construção como, por exemplo, os clientes, os arquitetos e os fornecedores.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

We model the relationship between ftoat (the tradeable shares of an asset) and stock price bubbles. Investors trade a stock that initiaUy has a limited ftoat because of insider lock-up restrictions but the tradeable shares of which increase over time as these restrictions expire. A speculative bubble arises because investors, with heterogeneous beliefs due to overconfidence and facing short-sales constraints, anticipate the option to reseU the stock to buyers with even higher valuations. With limited risk absorption capacity, this resale option depends on ftoat as investors anticipate the change in asset supply over time and speculate over the degree of insider selling. Our model yields implications consistent with the behavior of internet stock prices during the late nineties, such as the bubble, share turnover and volatility decreasing with ftoat and stock prices tending to drop on the lock-up expiration date though it is known to aU in advance.