966 resultados para Dynamic processes
Resumo:
A função de escalonamento desempenha um papel importante nos sistemas de produção. Os sistemas de escalonamento têm como objetivo gerar um plano de escalonamento que permite gerir de uma forma eficiente um conjunto de tarefas que necessitam de ser executadas no mesmo período de tempo pelos mesmos recursos. Contudo, adaptação dinâmica e otimização é uma necessidade crítica em sistemas de escalonamento, uma vez que as organizações de produção têm uma natureza dinâmica. Nestas organizações ocorrem distúrbios nas condições requisitos de trabalho regularmente e de forma inesperada. Alguns exemplos destes distúrbios são: surgimento de uma nova tarefa, cancelamento de uma tarefa, alteração na data de entrega, entre outros. Estes eventos dinâmicos devem ser tidos em conta, uma vez que podem influenciar o plano criado, tornando-o ineficiente. Portanto, ambientes de produção necessitam de resposta imediata para estes eventos, usando um método de reescalonamento em tempo real, para minimizar o efeito destes eventos dinâmicos no sistema de produção. Deste modo, os sistemas de escalonamento devem de uma forma automática e inteligente, ser capazes de adaptar o plano de escalonamento que a organização está a seguir aos eventos inesperados em tempo real. Esta dissertação aborda o problema de incorporar novas tarefas num plano de escalonamento já existente. Deste modo, é proposta uma abordagem de otimização – Hiper-heurística baseada em Seleção Construtiva para Escalonamento Dinâmico- para lidar com eventos dinâmicos que podem ocorrer num ambiente de produção, a fim de manter o plano de escalonamento, o mais robusto possível. Esta abordagem é inspirada em computação evolutiva e hiper-heurísticas. Do estudo computacional realizado foi possível concluir que o uso da hiper-heurística de seleção construtiva pode ser vantajoso na resolução de problemas de otimização de adaptação dinâmica.
Resumo:
Over the past decades several approaches for schedulability analysis have been proposed for both uni-processor and multi-processor real-time systems. Although different techniques are employed, very little has been put forward in using formal specifications, with the consequent possibility for mis-interpretations or ambiguities in the problem statement. Using a logic based approach to schedulability analysis in the design of hard real-time systems eases the synthesis of correct-by-construction procedures for both static and dynamic verification processes. In this paper we propose a novel approach to schedulability analysis based on a timed temporal logic with time durations. Our approach subsumes classical methods for uni-processor scheduling analysis over compositional resource models by providing the developer with counter-examples, and by ruling out schedules that cause unsafe violations on the system. We also provide an example showing the effectiveness of our proposal.
Resumo:
IEEE International Conference on Cyber Physical Systems, Networks and Applications (CPSNA'15), Hong Kong, China.
Resumo:
This paper analyses forest fires in the perspective of dynamical systems. Forest fires exhibit complex correlations in size, space and time, revealing features often present in complex systems, such as the absence of a characteristic length-scale, or the emergence of long range correlations and persistent memory. This study addresses a public domain forest fires catalogue, containing information of events for Portugal, during the period from 1980 up to 2012. The data is analysed in an annual basis, modelling the occurrences as sequences of Dirac impulses with amplitude proportional to the burnt area. First, we consider mutual information to correlate annual patterns. We use visualization trees, generated by hierarchical clustering algorithms, in order to compare and to extract relationships among the data. Second, we adopt the Multidimensional Scaling (MDS) visualization tool. MDS generates maps where each object corresponds to a point. Objects that are perceived to be similar to each other are placed on the map forming clusters. The results are analysed in order to extract relationships among the data and to identify forest fire patterns.
Resumo:
Dissertação apresentada para obtenção do Grau de Doutor em Engenharia Química e Bioquímica pela Universidade Nova de Lisboa, Faculdade de Ciências e Tecnologia
Resumo:
Web 2.0 software in general and wikis in particular have been receiving growing attention as they constitute new and powerful tools, capable of supporting information sharing, creation of knowledge and a wide range of collaborative processes and learning activities. This paper introduces briefly some of the new opportunities made possible by Web 2.0 or the social Internet, focusing on those offered by the use of wikis as learning spaces. A wiki allows documents to be created, edited and shared on a group basis; it has a very easy and efficient markup language, using a simple Web browser. One of the most important characteristics of wiki technology is the ease with which pages are created and edited. The facility for wiki content to be edited by its users means that its pages and structure form a dynamic entity, in permanent evolution, where users can insert new ideas, supplement previously existing information and correct errors and typos in a document at any time, up to the agreed final version. This paper explores wikis as a collaborative learning and knowledge-building space and its potential for supporting Virtual Communities of Practice (VCoPs). In the academic years (2007/8 and 2008/9), students of the Business Intelligence module at the Master's programme of studies on Knowledge Management and Business Intelligence at Instituto Superior de Estatistica e Gestao de Informacao of the Universidade Nova de Lisboa, Portugal, have been actively involved in the creation of BIWiki - a wiki for Business Intelligence in the Portuguese language. Based on usage patterns and feedback from students participating in this experience, some conclusions are drawn regarding the potential of this technology to support the emergence of VCoPs; some provisional suggestions will be made regarding the use of wikis to support information sharing, knowledge creation and transfer and collaborative learning in Higher Education.
Resumo:
EMC2 finds solutions for dynamic adaptability in open systems. It provides handling of mixed criticality multicore applications in r eal-time conditions, withscalability and utmost flexibility, full-scale deployment and management of integrated tool chains, through the entire lifecycle.
Resumo:
We consider a dynamic setting-price duopoly model in which a dominant (leader) firm moves first and a subordinate (follower) firm moves second. We suppose that each firm has two different technologies, and uses one of them according to a certain probability distribution. The use of either one or the other technology affects the unitary production cost. We analyse the effect of the production costs uncertainty on the profits of the firms, for different values of the intercept demand parameters.
Resumo:
Environmental nanoremediation of various contaminants has been reported in several recent studies. In this paper, the state of the art on the use of nanoparticles in soil and groundwater remediation processes is presented. There is a substantive body of evidence on the growing and successful application of nanoremediation for a diversity of soil and groundwater contamination contexts, particularly, for heavy metals, other inorganic contaminants, organic contaminants and emerging contaminants, as pharmaceutical and personal care products. This review confirms the competence of the use of nanoparticles in the remediation of contaminated media and the prevalent use of iron based nanoparticles.
Resumo:
The Container Loading Problem (CLP) literature has traditionally evaluated the dynamic stability of cargo by applying two metrics to box arrangements: the mean number of boxes supporting the items excluding those placed directly on the floor (M1) and the percentage of boxes with insufficient lateral support (M2). However, these metrics, that aim to be proxies for cargo stability during transportation, fail to translate real-world cargo conditions of dynamic stability. In this paper two new performance indicators are proposed to evaluate the dynamic stability of cargo arrangements: the number of fallen boxes (NFB) and the number of boxes within the Damage Boundary Curve fragility test (NB_DBC). Using 1500 solutions for well-known problem instances found in the literature, these new performance indicators are evaluated using a physics simulation tool (StableCargo), replacing the real-world transportation by a truck with a simulation of the dynamic behaviour of container loading arrangements. Two new dynamic stability metrics that can be integrated within any container loading algorithm are also proposed. The metrics are analytical models of the proposed stability performance indicators, computed by multiple linear regression. Pearson’s r correlation coefficient was used as an evaluation parameter for the performance of the models. The extensive computational results show that the proposed metrics are better proxies for dynamic stability in the CLP than the previous widely used metrics.
Resumo:
Dissertação para obtenção do Grau de Mestre em Engenharia Electrotécnica e de Computadores
Resumo:
A crescente evolução das tecnologias de informação e comunicação, aliadas ao desenvolvimento industrial, proporcionou um aumento de competitividade entre as indústrias, originando uma subida do nível da relação qualidade preço. Esta premissa causou uma maior preocupação com a procura contínua pela melhoria dos processos, de forma a aumentar as actividades de valor acrescentado, eliminando todo o tipo de desperdícios. Nesta conjuntura, a Grohe Portugal Componentes Sanitários, Lda propôs uma melhoria no âmbito da gestão de stocks de componentes existentes em dinâmico. Esta acção de melhoria passa pela definição e implementação de um método de gestão destes componentes, acompanhado por um conjunto de regras de identificação de actividades e respectivos intervenientes, por forma a optimizar os meios existentes e evitar a ocorrência de falhas de componentes nas linhas. Trata-se de um método baseado no cálculo das necessidades das linhas, que através da procura média semanal e constituição dos produtos finais define um nível de prioridade entre os componentes, identificando quais os mais requisitados pelas linhas e possibilitando a gestão do dinâmico. Na contínua tentativa de combater possíveis falhas, desenvolveu-se um sistema de gestão do tipo Kanban com a capacidade de gerir o produto semi-acabado para consumo interno. Foram, ainda, criadas melhorias que permitem um acréscimo de eficiência na gestão dos componentes em estante dinâmica, diminuindo o capital imobilizado investido em stocks, levando a um rearranjo de layouts, proporcionando melhores condições de trabalho e optimizando percursos e recursos. Descreve-se detalhadamente o processo de (i) actualização, definição e implementação do método de gestão de componentes em dinâmico, acompanhado pelo respectivo conjunto de regras, (ii) a implementação de um sistema do tipo Kanban orientado às reais preocupações da empresa, (iii) a redefinição de layouts em conformidade com a actualização dos dinâmicos e (iv) a identificação e execução de um conjunto de melhorias. Todas estas actividades acompanhadas pelo impacto financeiro na organização. Por fim, efectua-se o balanço deste projecto e sugerem-se oportunidades de melhoria.
Resumo:
Este documento apresenta uma avaliação sobre o uso dos simuladores fisiológicos como padrão para avaliação metrológica dos esfigmomanómetros automáticos na estimação da pressão sanguínea pelo método não invasivo (PNI). O presente estudo procurou avaliar o enquadramento destes equipamentos com os procedimentos das normas e recomendações usadas para apreciação metrológica dos esfigmomanómetros digitais. No contexto da prática metrológica existente determinou-se a existência de uma oportunidade de melhoria nos processos relacionados. O trabalho procurou obter resposta a diversas questões, relacionando a medição da pressão pelo método não invasivo, com o uso dos simuladores fisiológicos, o contexto em que estes podem ser usados, as formas de simulação, as medições e os resultados, procurando a perspetiva metrológica como enquadramento. As recomendações existentes [1] [2] [3] [4] [5] [6] [7] [8], são muito claras nos procedimentos, validação e nos desvios permitidos para os monitores da tensão arterial (MTA), equipamento que permite a avaliação dos parâmetros fisiológicos do paciente, no entanto, quando se pretende avançar para outro domínio, como o do uso dos simuladores, em particular para a simulação da PNI, não existem recomendações ou normas tão claras, e não existe sobretudo um padrão de referência que imite a natureza dinâmica que caracteriza a pressão sanguínea. O trabalho procurou ainda estabelecer a ligação entre o método clássico de auscultação (o principio de determinação da PS), a técnica digital de medição e os simuladores, para uma melhor compreensão do que é a pressão sanguínea, e como relacionar a problemática da simulação e a de um padrão de referência. Neste trabalho estão ainda presentes abordagens a diversos tópicos, como as validações clínicas, acessórios, ou a metrologia e que influenciam no final os equipamentos e o contexto que se pretende avaliar. Os diversos equipamentos testados procuraram conter amostras diversificadas, quer para os MTA de uso profissional ou doméstico, assim como para os simuladores. A avaliação dos simuladores foi realizada contra um grupo de MTAs. Foi testada a influência na medição, causada pela mudança de acessórios, ou seja, nos resultados, merecendo consideração pela perspetiva metrológica. No resumo dos testes e do estudo sobre este tema, verificou-se que esta tipologia de equipamentos pode contribuir como complemento do processo de calibração típico (estático). Não constitui por si só um método alternativo, mas permitiu estimar possíveis limites de erro e desvio padrão a partir da observação dos resultados práticos, limites esses inferiores aos processos de validação clínica. Atendendo às particularidades, estimou-se como desvio aceitável um erro mais desvio padrão de 5 + 3 mmHg para o processo de simulação. Contudo considera-se ainda importante os testes adicionais em que o simulador permite, ao verificar as medidas de segurança implementadas no equipamento e a condição dos acessórios, que como verificado afetam os resultados. No entanto nem todos os simuladores se mostram adequados a este processo pelo que a qualidade da seleção do equipamento para este fim pode eventualmente reduzir ainda mais os possíveis limites.
Resumo:
The purpose of our study was to evaluate the accuracy of dynamic incremental bolus-enhanced conventional CT (DICT) with intravenous contrast administration, early phase, in the diagnosis of malignancy of focal liver lesions. A total of 122 lesions were selected in 74 patients considering the following criteria: lesion diameter 10 mm or more, number of lesions less than six per study, except in multiple angiomatosis and the existence of a valid criteria of definitive diagnosis. Lesions were categorized into seven levels of diagnostic confidence of malignancy compared with the definitive diagnosis for acquisition of a receiver-operator-characteristic (ROC) curve analysis and to determine the sensitivity and specificity of the technique. Forty-six and 70 lesions were correctly diagnosed as malignant and benign, respectively; there were 2 false-positive and 4 false-negative diagnoses of malignancy and the sensitivity and specificity obtained were 92 and 97%. The DICT early phase was confirmed as a highly accurate method in the characterization and diagnosis of malignancy of focal liver lesions, requiring an optimal technical performance and judicious analysis of existing semiological data.