958 resultados para MIP Mathematical Programming Job Shop Scheduling
Resumo:
Empreendimentos industriais requerem o acompanhamento completo e preciso de dados de máquinas em tempo real, integrando as atividades do chão de fábrica com a engenharia, suporte e negócios. É reconhecido que sistemas de monitorização são fundamentais para melhorar a qualidade do produto, reduzir os tempos e para a adaptação rápida às mudanças de produção. Os sensores de processos possuem custos altos, não são compactos e são de difícil implementação. Portanto, seria estratégico desenvolver sistemas de monitorização que usufruem ao máximo dos recursos já existentes nas máquinas e ferramentas e que não representem custos adicionais elevados e de difícil implementação. O uso de PLC nas indústrias é crescente. Estes mostram-se como ferramentas potenciais para atender a estas exigências. Os PLC possuem os recursos necessários para a aquisição de informações e controlo das máquinas, facilitando a interação com um sistema SCADA. O objetivo do presente trabalho é pesquisar soluções sobre sistemas de monitorização que possam substituir um sistema instalado antiquado e encontrar uma solução para o controlo de um processo de vazamento. Para tal, foram consideradas duas soluções: uma passaria por desenvolver um sistema de monitorização que controlasse o processo de vazamento, e outra que permitisse ser o PLC a fazer o controlo, adquirindo um HMI apenas para monitorização. Esta última solução revelou-se como a melhor, visto que um PLC tem mais durabilidade em relação a um PC, em termos de atualizações de hardware e software. Assim, foram criadas funções no PLC para fazer o controlo de vazamento e foi adquirido uma consola Beijer, e respetivo software de programação SCADA, para a criação do sistema de monitorização. Os resultados mostram que o PLC é capaz de executar o controlo, não sendo necessário investir em PC que são mais caros, bastando para isso adquirir sistemas SCADA simples e capazes.
Resumo:
Recent embedded processor architectures containing multiple heterogeneous cores and non-coherent caches renewed attention to the use of Software Transactional Memory (STM) as a building block for developing parallel applications. STM promises to ease concurrent and parallel software development, but relies on the possibility of abort conflicting transactions to maintain data consistency, which in turns affects the execution time of tasks carrying transactions. Because of this fact the timing behaviour of the task set may not be predictable, thus it is crucial to limit the execution time overheads resulting from aborts. In this paper we formalise a FIFO-based algorithm to order the sequence of commits of concurrent transactions. Then, we propose and evaluate two non-preemptive and one SRP-based fully-preemptive scheduling strategies, in order to avoid transaction starvation.
Resumo:
Presented at IEEE Real-Time Systems Symposium (RTSS 2015). 1 to 4, Dec, 2015. San Antonio, U.S.A..
Resumo:
Presented at IEEE Real-Time Systems Symposium (RTSS 2015). 1 to 4, Dec, 2015. San Antonio, U.S.A..
Resumo:
In the traditional paradigm, the large power plants supply the reactive power required at a transmission level and the capacitors and transformer tap changer were also used at a distribution level. However, in a near future will be necessary to schedule both active and reactive power at a distribution level, due to the high number of resources connected in distribution levels. This paper proposes a new multi-objective methodology to deal with the optimal resource scheduling considering the distributed generation, electric vehicles and capacitor banks for the joint active and reactive power scheduling. The proposed methodology considers the minimization of the cost (economic perspective) of all distributed resources, and the minimization of the voltage magnitude difference (technical perspective) in all buses. The Pareto front is determined and a fuzzy-based mechanism is applied to present the best compromise solution. The proposed methodology has been tested in the 33-bus distribution network. The case study shows the results of three different scenarios for the economic, technical, and multi-objective perspectives, and the results demonstrated the importance of incorporating the reactive scheduling in the distribution network using the multi-objective perspective to obtain the best compromise solution for the economic and technical perspectives.
Resumo:
In this paper, we formulate the electricity retailers’ short-term decision-making problem in a liberalized retail market as a multi-objective optimization model. Retailers with light physical assets, such as generation and storage units in the distribution network, are considered. Following advances in smart grid technologies, electricity retailers are becoming able to employ incentive-based demand response (DR) programs in addition to their physical assets to effectively manage the risks of market price and load variations. In this model, the DR scheduling is performed simultaneously with the dispatch of generation and storage units. The ultimate goal is to find the optimal values of the hourly financial incentives offered to the end-users. The proposed model considers the capacity obligations imposed on retailers by the grid operator. The profit seeking retailer also has the objective to minimize the peak demand to avoid the high capacity charges in form of grid tariffs or penalties. The non-dominated sorting genetic algorithm II (NSGA-II) is used to solve the multi-objective problem. It is a fast and elitist multi-objective evolutionary algorithm. A case study is solved to illustrate the efficient performance of the proposed methodology. Simulation results show the effectiveness of the model for designing the incentive-based DR programs and indicate the efficiency of NSGA-II in solving the retailers’ multi-objective problem.
Resumo:
A new iterative algorithm based on the inexact-restoration (IR) approach combined with the filter strategy to solve nonlinear constrained optimization problems is presented. The high level algorithm is suggested by Gonzaga et al. (SIAM J. Optim. 14:646–669, 2003) but not yet implement—the internal algorithms are not proposed. The filter, a new concept introduced by Fletcher and Leyffer (Math. Program. Ser. A 91:239–269, 2002), replaces the merit function avoiding the penalty parameter estimation and the difficulties related to the nondifferentiability. In the IR approach two independent phases are performed in each iteration, the feasibility and the optimality phases. The line search filter is combined with the first one phase to generate a “more feasible” point, and then it is used in the optimality phase to reach an “optimal” point. Numerical experiences with a collection of AMPL problems and a performance comparison with IPOPT are provided.
Resumo:
Dissertação para obtenção do Grau de Mestre em Engenharia Informática
Resumo:
As plataformas com múltiplos núcleos tornaram a programação paralela/concorrente num tópico de interesse geral. Diversos modelos de programação têm vindo a ser propostos, facilitando aos programadores a identificação de regiões de código potencialmente paralelizáveis, deixando ao sistema operativo a tarefa de as escalonar dinamicamente em tempo de execução, explorando o maior grau possível de paralelismo. O Java não foge a esta tendência, disponibilizando ao programador um número crescente de bibliotecas de mecanismos de sincronização e paralelização de código. Neste contexto, esta tese apresenta e discute um conjunto de resultados obtidos através de testes intensivos à eficiência de algoritmos de ordenação implementados com recurso aos mecanismos de concorrência da API do Java 8 (Threads, Threadpools, ExecutorService, CountdownLach, ExecutorCompletionService e ForkJoinPools) em sistemas com um número de núcleos variável. Para cada um dos mecanismos, são apresentadas conclusões sobre o seu funcionamento e discutidos os cenários em que o seu uso pode ser rentabilizado de modo a serem obtidos melhores tempos de execução.
Resumo:
Dissertação para obtenção do Grau de Mestre em Engenharia Biomédica
Resumo:
Standarização de um posto de trabalho não é mais que definir o melhor método de trabalho que vai ser seguido por todos os operadores que trabalham no mesmo. Uma vez definido esse método, é importante para uma empresa ter noção da produtividade que podem alcançar, dado que pode ser retirado a partir deste método, e é no seguimento disto que surge o estudo dos métodos e tempos, mais concretamente o estudo dos tempos por cronometragem. A aplicação deste estudo foi despoletada pela necessidade do IKEA Industry de Paços de Ferreira, em dar o próximo passo na standarização dos seus postos de trabalho, área a área, e da necessidade de terem uma pessoa em cada área que analisa-se o trabalho que estava a ser feito e calcula-se o tempo de cada rotina. Neste documento, é realizada uma interligação entre os conceitos teóricos que o método exige, como todo o conjunto de fórmulas, restrições, análises e ponderações, com o contexto laboral onde o mesmo foi aplicado e a estratégia desenvolvida pelo IKEA na realização do estudo. O estudo dos métodos e tempos por cronometragem, de todos os métodos existentes, pode ser considerado o mais completo e complexo, uma vez que é mais que observar, registar e retirar uma média ponderada das observações. Este método baseia-se num modelo matemático, que interliga uma série de conceitos e que tem sempre o operador em consideração, seja na avaliação e análise das tarefas que requerem mais esforço dos mesmos, físico ou psicológico, seja em termos de tempos de pausas pessoais que a lei obriga a que as empresas deem. Este detalhe, neste método, é de grande importância, uma vez que a standarização é sempre vista pelos operadores como uma punição. As desvantagens deste método estão no grau de conhecimento e capacidade de observação exigidas ao analista para o executar. Melhor dizendo, um analista que vá executar este trabalho necessita observar muito bem a rotina de trabalho e conhecer onde começa, acaba e tudo o que a ela não pertence, antes de começar a registar seja que tempos forem. Para além disso, é exigido ao analista que perceba o ritmo de trabalho dos operadores através da observação dos mesmos, de modo a que ninguém seja prejudicado. E por fim, é necessária uma grande disponibilidade da parte do analista para retirar o máximo de observações possíveis. Com o intuito de facilitar esta análise, o IKEA Industry criou um ficheiro que compila toda a informação relacionada com o método, e uma explicação de todos os parâmetros que o analista necessita ter em atenção. Esta folha de trabalho foi validada à luz do método, como é possível verificar no decorrer do documento. Um detalhe importante a referir, é que por muito fidedigno que seja este método, tal como qualquer método de standarização, a mínima alteração da rotina de trabalho invalida de imediato o tempo total da rotina, tornando necessário realizar o estudo novamente. Uma vantagem do documento criado pelo IKEA, está na rápida adaptação a estas alterações, uma vez que, caso seja acrescentado ou removido um elemento à rotina, basta alterar o documento, observar e cronometrar os operadores a executar esse novo elemento, e quase automaticamente é definido um novo tempo total padronizado na rotina. Este documento foi criado para fins académicos e de conclusão de um grau académico, mas o estudo quando aplicado na empresa deu origem a contratações, o que só por si mostra as vantagens e impacto que o mesmo pode ter em contexto laboral. Em termos de produtividade, uma vez que a sua aplicação não foi executada a tempo de ser estudada neste documento, não foi possível avaliar a mesma.
Resumo:
Nos dias de hoje, os sistemas de tempo real crescem em importância e complexidade. Mediante a passagem do ambiente uniprocessador para multiprocessador, o trabalho realizado no primeiro não é completamente aplicável no segundo, dado que o nível de complexidade difere, principalmente devido à existência de múltiplos processadores no sistema. Cedo percebeu-se, que a complexidade do problema não cresce linearmente com a adição destes. Na verdade, esta complexidade apresenta-se como uma barreira ao avanço científico nesta área que, para já, se mantém desconhecida, e isto testemunha-se, essencialmente no caso de escalonamento de tarefas. A passagem para este novo ambiente, quer se trate de sistemas de tempo real ou não, promete gerar a oportunidade de realizar trabalho que no primeiro caso nunca seria possível, criando assim, novas garantias de desempenho, menos gastos monetários e menores consumos de energia. Este último fator, apresentou-se desde cedo, como, talvez, a maior barreira de desenvolvimento de novos processadores na área uniprocessador, dado que, à medida que novos eram lançados para o mercado, ao mesmo tempo que ofereciam maior performance, foram levando ao conhecimento de um limite de geração de calor que obrigou ao surgimento da área multiprocessador. No futuro, espera-se que o número de processadores num determinado chip venha a aumentar, e como é óbvio, novas técnicas de exploração das suas inerentes vantagens têm de ser desenvolvidas, e a área relacionada com os algoritmos de escalonamento não é exceção. Ao longo dos anos, diferentes categorias de algoritmos multiprocessador para dar resposta a este problema têm vindo a ser desenvolvidos, destacando-se principalmente estes: globais, particionados e semi-particionados. A perspectiva global, supõe a existência de uma fila global que é acessível por todos os processadores disponíveis. Este fato torna disponível a migração de tarefas, isto é, é possível parar a execução de uma tarefa e resumir a sua execução num processador distinto. Num dado instante, num grupo de tarefas, m, as tarefas de maior prioridade são selecionadas para execução. Este tipo promete limites de utilização altos, a custo elevado de preempções/migrações de tarefas. Em contraste, os algoritmos particionados, colocam as tarefas em partições, e estas, são atribuídas a um dos processadores disponíveis, isto é, para cada processador, é atribuída uma partição. Por essa razão, a migração de tarefas não é possível, acabando por fazer com que o limite de utilização não seja tão alto quando comparado com o caso anterior, mas o número de preempções de tarefas decresce significativamente. O esquema semi-particionado, é uma resposta de caráter hibrido entre os casos anteriores, pois existem tarefas que são particionadas, para serem executadas exclusivamente por um grupo de processadores, e outras que são atribuídas a apenas um processador. Com isto, resulta uma solução que é capaz de distribuir o trabalho a ser realizado de uma forma mais eficiente e balanceada. Infelizmente, para todos estes casos, existe uma discrepância entre a teoria e a prática, pois acaba-se por se assumir conceitos que não são aplicáveis na vida real. Para dar resposta a este problema, é necessário implementar estes algoritmos de escalonamento em sistemas operativos reais e averiguar a sua aplicabilidade, para caso isso não aconteça, as alterações necessárias sejam feitas, quer a nível teórico quer a nível prá
Resumo:
Dissertação apresentada como requisito parcial para obtenção do grau de Mestre em Estatística e Gestão de Informação.
Resumo:
A Work Project, presented as part of the requirements for the Award of a Masters Degree in Management from the NOVA – School of Business and Economics
Resumo:
A Work Project, presented as part of the requirements for the Award of a Masters Degree in Management from the NOVA – School of Business and Economics