129 resultados para Multi métodos
Resumo:
O trabalho apresentado centra-se na determinação dos custos de construção de condutas de pequenos e médios diâmetros em Polietileno de Alta Densidade (PEAD) para saneamento básico, tendo como base a metodologia descrita no livro Custos de Construção e Exploração – Volume 9 da série Gestão de Sistemas de Saneamento Básico, de Lencastre et al. (1994). Esta metodologia descrita no livro já referenciado, nos procedimentos de gestão de obra, e para tal foram estimados custos unitários de diversos conjuntos de trabalhos. Conforme Lencastre et al (1994), “esses conjuntos são referentes a movimentos de terras, tubagens, acessórios e respetivos órgãos de manobra, pavimentações e estaleiro, estando englobado na parte do estaleiro trabalhos acessórios correspondentes à obra.” Os custos foram obtidos analisando vários orçamentos de obras de saneamento, resultantes de concursos públicos de empreitadas recentemente realizados. Com vista a tornar a utilização desta metodologia numa ferramenta eficaz, foram organizadas folhas de cálculo que possibilitam obter estimativas realistas dos custos de execução de determinada obra em fases anteriores ao desenvolvimento do projeto, designadamente numa fase de preparação do plano diretor de um sistema ou numa fase de elaboração de estudos de viabilidade económico-financeiros, isto é, mesmo antes de existir qualquer pré-dimensionamento dos elementos do sistema. Outra técnica implementada para avaliar os dados de entrada foi a “Análise Robusta de Dados”, Pestana (1992). Esta metodologia permitiu analisar os dados mais detalhadamente antes de se formularem hipóteses para desenvolverem a análise de risco. A ideia principal é o exame bastante flexível dos dados, frequentemente antes mesmo de os comparar a um modelo probabilístico. Assim, e para um largo conjunto de dados, esta técnica possibilitou analisar a disparidade dos valores encontrados para os diversos trabalhos referenciados anteriormente. Com os dados recolhidos, e após o seu tratamento, passou-se à aplicação de uma metodologia de Análise de Risco, através da Simulação de Monte Carlo. Esta análise de risco é feita com recurso a uma ferramenta informática da Palisade, o @Risk, disponível no Departamento de Engenharia Civil. Esta técnica de análise quantitativa de risco permite traduzir a incerteza dos dados de entrada, representada através de distribuições probabilísticas que o software disponibiliza. Assim, para por em prática esta metodologia, recorreu-se às folhas de cálculo que foram realizadas seguindo a abordagem proposta em Lencastre et al (1994). A elaboração e a análise dessas estimativas poderão conduzir à tomada de decisões sobre a viabilidade da ou das obras a realizar, nomeadamente no que diz respeito aos aspetos económicos, permitindo uma análise de decisão fundamentada quanto à realização dos investimentos.
Resumo:
Neste trabalho apresentam-se os resultados da analise e comparação da utilização da Análise de Componentes Principais Clássica (ACP) e a Análise de Componentes Principais Robusta (ACPR) na descrição da relação entre a profundidade de um solo florestal e as alterações em quatro propriedades geoquímicas fundamentais. Os resultados obtidos reconhecem que, neste tipo de dados e cala local, a utilização da ACPR deve ser utilizada em detrimento da ACP e que o procedimento de amostragem de solos pouco férteis, como é o caso dos solos florestais, pode ser aliviado em termos de detalhe em profundidade por uma amostragem a uma altura única de 18cm mas deve, contudo, ser efectuada estrategicamente, dado que a localização dos pontos de amostragem revela ter significativa influência nos resultados obtidos.
Resumo:
No âmbito da unidade curricular Dissertação/Projeto/Estágio do 2º ano do Mestrado em Engenharia mecânica – Ramo Gestão Industrial do Instituto Superior de Engenharia do Porto, o presente trabalho de dissertação foi enquadrado num projeto de desenvolvimento de ferramentas de apoio à gestão de projetos. O projeto foi desenvolvido no Instituto de Engenharia Mecânica e Gestão Industrial (INEGI) na unidade de Desenvolvimento de Produto e Sistemas (DPS). A realização deste projeto teve como objetivo o desenvolvimento e adequação de ferramentas de apoio à gestão de multi-projeto no processo de desenvolvimento de produto na organização em estudo – o INEGI – DPS. A gestão de projetos tem hoje uma grande importância nos resultados das empresas essencialmente em virtude da necessidade de estas competirem num mundo em grande mudança com concorrentes ferozes, em que a capacidade de responder às mudanças a tempo e de uma forma integrada se torna cada vez mais importante. A atividade levada a cabo pela DPS impõe a necessidade de uma gestão de projetos mais eficaz e eficiente suportada numa gestão de informação centralizada. O presente projeto de investigação teve, numa primeira fase, uma adaptação à organização em estudo. De seguida, foi conduzida uma revisão da literatura com o objetivo de se obter a fundamentação teórica necessária ao desenvolvimento de ferramentas com base nas metodologias lean. Prosseguiu com o levantamento da situação inicial da organização e com a identificação dos problemas existentes na gestão de projetos. Incluiu também uma revisão e análise das ferramentas existentes na unidade em estudo. Este conhecimento permitiu delinear uma visão para guiar o desenvolvimento das ferramentas. Após a definição da visão foi, então, realizado o desenvolvimento das ferramentas de auxílio à gestão multi-projeto na organização. A concretização deste trabalho resultou no desenvolvimento de três ferramentas de auxílio à gestão multi-projeto na unidade. Estas ferramentas tornam o processo de gestão de projetos mais simples e fácil de assimilar, requerendo apenas alguns inputs por parte dos colaboradores. Estas ferramentas estão apoiadas nos pilares do lean, e deste modo estão vocacionadas para reduzir o desperdício, promover a melhoria contínua, aumentar o desempenho global dos vários atores nos projetos de modo a entregar mais valor e qualidade superior com menores custos. Acima de tudo, valorizar o trabalho dos colaboradores, tornando-os mais eficientes, eficazes, motivados e comprometidos com a organização.
Resumo:
The current ubiquitous network access and increase in network bandwidth are driving the sales of mobile location-aware user devices and, consequently, the development of context-aware applications, namely location-based services. The goal of this project is to provide consumers of location-based services with a richer end-user experience by means of service composition, personalization, device adaptation and continuity of service. Our approach relies on a multi-agent system composed of proxy agents that act as mediators and providers of personalization meta-services, device adaptation and continuity of service for consumers of pre-existing location-based services. These proxy agents, which have Web services interfaces to ensure a high level of interoperability, perform service composition and take in consideration the preferences of the users, the limitations of the user devices, making the usage of different types of devices seamless for the end-user. To validate and evaluate the performance of this approach, use cases were defined, tests were conducted and results gathered which demonstrated that the initial goals were successfully fulfilled.
Resumo:
Decentralised co-operative multi-agent systems are computational systems where conflicts are frequent due to the nature of the represented knowledge. Negotiation methodologies, in this case argumentation based negotiation methodologies, were developed and applied to solve unforeseeable and, therefore, unavoidable conflicts. The supporting computational model is a distributed belief revision system where argumentation plays the decisive role of revision. The distributed belief revision system detects, isolates and solves, whenever possible, the identified conflicts. The detection and isolation of the conflicts is automatically performed by the distributed consistency mechanism and the resolution of the conflict, or belief revision, is achieved via argumentation. We propose and describe two argumentation protocols intended to solve different types of identified information conflicts: context dependent and context independent conflicts. While the protocol for context dependent conflicts generates new consensual alternatives, the latter chooses to adopt the soundest, strongest argument presented. The paper shows the suitability of using argumentation as a distributed decentralised belief revision protocol to solve unavoidable conflicts.
Resumo:
The environmental management domain is vast and encompasses many identifiable activities: impact assessment, planning, project evaluation, etc. In particular, this paper focusses on the modelling of the project evaluation activity. The environmental decision support system under development aims to provide assistance to project developers in the selection of adequate locations, guaranteeing the compliance with the applicable regulations and the existing development plans as well as satisfying the specified project requirements. The inherent multidisciplinarity features of this activity lead to the adoption of the Multi-Agent paradigm, and, in particular, to the modelling of the involved agencies as a community of cooperative autonomous agents, where each agency contributes with its share of problem solving to the final system’s recommendation. To achieve this behaviour the many conclusions of the individual agencies have to be justifiably accommodated: not only they may differ, but can be interdependent, complementary, irreconcilable, or simply, independent. We propose different solutions (involving both local and global consistency) to support the adequate merge of the distinct perspectives that inevitably arise during this type of decision making.
Resumo:
The ability to respond sensibly to changing and conflicting beliefs is an integral part of intelligent agency. To this end, we outline the design and implementation of a Distributed Assumption-based Truth Maintenance System (DATMS) appropriate for controlling cooperative problem solving in a dynamic real world multi-agent community. Our DATMS works on the principle of local coherence which means that different agents can have different perspectives on the same fact provided that these stances are appropriately justified. The belief revision algorithm is presented, the meta-level code needed to ensure that all system-wide queries can be uniquely answered is described, and the DATMS’ implementation in a general purpose multi-agent shell is discussed.
Resumo:
Multi-agent architectures are well suited for complex inherently distributed problem solving domains. From the many challenging aspects that arise within this framework, a crucial one emerges: how to incorporate dynamic and conflicting agent beliefs? While the belief revision activity in a single agent scenario is concentrated on incorporating new information while preserving consistency, in a multi-agent system it also has to deal with possible conflicts between the agents perspectives. To provide an adequate framework, each agent, built as a combination of an assumption based belief revision system and a cooperation layer, was enriched with additional features: a distributed search control mechanism allowing dynamic context management, and a set of different distributed consistency methodologies. As a result, a Distributed Belief Revision Testbed (DiBeRT) was developed. This paper is a preliminary report presenting some of DiBeRT contributions: a concise representation of external beliefs; a simple and innovative methodology to achieve distributed context management; and a reduced inter-agent data exchange format.
Resumo:
In a real world multiagent system, where the agents are faced with partial, incomplete and intrinsically dynamic knowledge, conflicts are inevitable. Frequently, different agents have goals or beliefs that cannot hold simultaneously. Conflict resolution methodologies have to be adopted to overcome such undesirable occurrences. In this paper we investigate the application of distributed belief revision techniques as the support for conflict resolution in the analysis of the validity of the candidate beams to be produced in the CERN particle accelerators. This CERN multiagent system contains a higher hierarchy agent, the Specialist agent, which makes use of meta-knowledge (on how the con- flicting beliefs have been produced by the other agents) in order to detect which beliefs should be abandoned. Upon solving a conflict, the Specialist instructs the involved agents to revise their beliefs accordingly. Conflicts in the problem domain are mapped into conflicting beliefs of the distributed belief revision system, where they can be handled by proven formal methods. This technique builds on well established concepts and combines them in a new way to solve important problems. We find this approach generally applicable in several domains.
Resumo:
Computerized scheduling methods and computerized scheduling systems according to exemplary embodiments. A computerized scheduling method may be stored in a memory and executed on one or more processors. The method may include defining a main multi-machine scheduling problem as a plurality of single machine scheduling problems; independently solving the plurality of single machine scheduling problems thereby calculating a plurality of near optimal single machine scheduling problem solutions; integrating the plurality of near optimal single machine scheduling problem solutions into a main multi-machine scheduling problem solution; and outputting the main multi-machine scheduling problem solution.
Resumo:
The mineral content (phosphorous (P), potassium (K), sodium (Na), calcium (Ca), magnesium (Mg), iron (Fe), manganese (Mn), zinc (Zn) and copper (Cu)) of eight ready-to-eat baby leaf vegetables was determined. The samples were subjected to microwave-assisted digestion and the minerals were quantified by High-Resolution Continuum Source Atomic Absorption Spectrometry (HR-CS-AAS) with flame and electrothermal atomisation. The methods were optimised and validated producing low LOQs, good repeatability and linearity, and recoveries, ranging from 91% to 110% for the minerals analysed. Phosphorous was determined by a standard colorimetric method. The accuracy of the method was checked by analysing a certified reference material; results were in agreement with the quantified value. The samples had a high content of potassium and calcium, but the principal mineral was iron. The mineral content was stable during storage and baby leaf vegetables could represent a good source of minerals in a balanced diet. A linear discriminant analysis was performed to compare the mineral profile obtained and showed, as expected, that the mineral content was similar between samples from the same family. The Linear Discriminant Analysis was able to discriminate different samples based on their mineral profile.
Resumo:
Mestrado em Engenharia Mecânica – Especialização Gestão Industrial
Resumo:
Mestrado em Engenharia Mecânica
Resumo:
A otimização nos sistemas de suporte à decisão atuais assume um carácter fortemente interdisciplinar relacionando-se com a necessidade de integração de diferentes técnicas e paradigmas na resolução de problemas reais complexos, sendo que a computação de soluções ótimas em muitos destes problemas é intratável. Os métodos de pesquisa heurística são conhecidos por permitir obter bons resultados num intervalo temporal aceitável. Muitas vezes, necessitam que a parametrização seja ajustada de forma a permitir obter bons resultados. Neste sentido, as estratégias de aprendizagem podem incrementar o desempenho de um sistema, dotando-o com a capacidade de aprendizagem, por exemplo, qual a técnica de otimização mais adequada para a resolução de uma classe particular de problemas, ou qual a parametrização mais adequada de um dado algoritmo num determinado cenário. Alguns dos métodos de otimização mais usados para a resolução de problemas do mundo real resultaram da adaptação de ideias de várias áreas de investigação, principalmente com inspiração na natureza - Meta-heurísticas. O processo de seleção de uma Meta-heurística para a resolução de um dado problema é em si um problema de otimização. As Híper-heurísticas surgem neste contexto como metodologias eficientes para selecionar ou gerar heurísticas (ou Meta-heurísticas) na resolução de problemas de otimização NP-difícil. Nesta dissertação pretende-se dar uma contribuição para o problema de seleção de Metaheurísticas respetiva parametrização. Neste sentido é descrita a especificação de uma Híperheurística para a seleção de técnicas baseadas na natureza, na resolução do problema de escalonamento de tarefas em sistemas de fabrico, com base em experiência anterior. O módulo de Híper-heurística desenvolvido utiliza um algoritmo de aprendizagem por reforço (QLearning), que permite dotar o sistema da capacidade de seleção automática da Metaheurística a usar no processo de otimização, assim como a respetiva parametrização. Finalmente, procede-se à realização de testes computacionais para avaliar a influência da Híper- Heurística no desempenho do sistema de escalonamento AutoDynAgents. Como conclusão genérica, é possível afirmar que, dos resultados obtidos é possível concluir existir vantagem significativa no desempenho do sistema quando introduzida a Híper-heurística baseada em QLearning.
Resumo:
O leite é um alimento complexo, pela sua composição rico em água, proteínas, lípidos, vitaminas e minerais. Devido ao seu alto valor nutricional é fundamental para a amamentação de crianças e animais em crescimento, pois fornece componentes fundamentais para o desenvolvimento e manutenção da saúde. Os antimicrobianos são amplamente utilizados como uma medida terapêutica no tratamento de infeções bacterianas, profilaxia e como promotores de crescimento (aditivos). A presença de resíduos de antimicrobianos no leite pode representar riscos para a saúde humana, como reações alérgicas em indivíduos hipersensíveis e resistências. Os objetivos deste estudo são o desenvolvimento de novos métodos de limpeza e de pré-concentração para amostras de leite, por meio de extração em fase sólida (SPE), com a finalidade de realizar uma melhor identificação e quantificação de antimicrobiana por Cromatografia Líquida de Alta Performance (HPLC). Todos os métodos desenvolvidos são de fácil execução, com taxas de recuperação dos agentes antimicrobianos viáveis, com uma percentagem de recuperação a partir de 85%. O método cromatográfico utilizado para a deteção e quantificação (HPLC-DAD) têm os limites de deteção (LD) entre 2.43ng / mL e 1.62ng / mL e os limites de quantificação (LQ) entre 7,36 ng / mL e 4.92 ng / mL, o que significa este método vai de encontro às diretrizes estipuladas pela União Europeia para os agentes antimicrobianos estudados. A combinação dos métodos propostos de limpeza e pré-concentração por SPE e multirresíduo por HPLC-DAD permite, por conseguinte, a deteção e quantificação de resíduos de antibióticos no leite, tornando esta uma alternativa importante e útil no processo de controlo de qualidade para a indústria de alimentos e outras área.