953 resultados para Concurrent execution
Resumo:
O presente trabalho, desenvolvido sob a orientação do Prof. Jaime Gabriel Silva, centra-se na procura e aplicação de metodologias de planeamento com apoio de ferramentas informáticas de análise de risco, que permitem realizar, em tempo útil, o cálculo dos prazos resultantes de inúmeras combinações possíveis associadas à incerteza das durações das atividades, recorrendo a modelos estocásticos. O trabalho aborda inicialmente o contexto da Gestão na Construção, com particular enfase na Gestão do Risco. Nessa fase inicial, fez-se também um pequeno inquérito a profissionais com diferentes níveis de responsabilidade organizacional e empresas do setor. A parte fundamental do trabalho, incide nos procedimentos a adotar na elaboração do planeamento de empreitadas. Nesta parte do trabalho, introduzem-se os conceitos da análise de risco com recurso a uma ferramenta informática de apoio, o @Risk, que permite a utilização do Método de Monte Carlo, para obtenção de resultados num contexto de uma tomada de decisão baseada no risco. Refira-se que houve vários contactos com o fornecedor do programa, que permitiram tirar partido de outro programa da Palisade, Evolver, direcionado para otimização matemática, podendo ser utilizado, por exemplo, na perspetiva da minimização dos custos, o que pode interessar pela relação destes com as opções adotadas na elaboração do planeamento de empreendimentos. Finalmente, toma-se um exemplo real do planeamento de uma empreitada em execução à data da realização deste trabalho, onde se aplicaram os conceitos desenvolvidos no trabalho, confrontando os resultados com o andamento da obra.
Resumo:
Empowered by virtualisation technology, cloud infrastructures enable the construction of flexi- ble and elastic computing environments, providing an opportunity for energy and resource cost optimisation while enhancing system availability and achieving high performance. A crucial re- quirement for effective consolidation is the ability to efficiently utilise system resources for high- availability computing and energy-efficiency optimisation to reduce operational costs and carbon footprints in the environment. Additionally, failures in highly networked computing systems can negatively impact system performance substantially, prohibiting the system from achieving its initial objectives. In this paper, we propose algorithms to dynamically construct and readjust vir- tual clusters to enable the execution of users’ jobs. Allied with an energy optimising mechanism to detect and mitigate energy inefficiencies, our decision-making algorithms leverage virtuali- sation tools to provide proactive fault-tolerance and energy-efficiency to virtual clusters. We conducted simulations by injecting random synthetic jobs and jobs using the latest version of the Google cloud tracelogs. The results indicate that our strategy improves the work per Joule ratio by approximately 12.9% and the working efficiency by almost 15.9% compared with other state-of-the-art algorithms.
Resumo:
The concurrent use of herbs and/or nutritional supplements with psychoactive effect and prescription medications is common among college students. College students are a particularly vulnerable population, for they are under less social/familiar surveillance and seek greater independence, as well as under greater intellectual effort, stress, anxiety and depression, which predispose them to a higher consumption of psychoactive substances. Herbs, vitamins, and other dietary supplements may influence the effects of prescription and nonprescription drugs leading to adverse consequences, by increasing the potential for interactions. However, documented interactions between herbal medicinal products and prescribed drugs are rare. Objective: determine the prevalence of concomitant use of psychoactive substances among healthcare students in the Lisbon School of Health Technology, Portugal, in order to assess the risk of potential herb-drug interactions.
Resumo:
Trabalho apresentado no âmbito do Mestrado em Engenharia Informática, como requisito parcial para obtenção do grau de Mestre em Engenharia Informática
Resumo:
Mestrado em Engenharia Civil - Tecnologia e Gestão das Construções
Resumo:
Dissertação apresentada na Faculdade de Ciências e Tecnologia da Universidade Nova de Lisboa para a obtenção do Grau de Mestre em Engenharia Informática
Resumo:
Num passado relativamente recente, o processo de demolição tem experimentado várias mudanças, que incidem principalmente na forma como o edifício ou estrutura vai ser demolido. Mais recentemente, o surgimento das preocupações ambientais levam hoje a falar de "desconstrução", em função do prejuízo das demolições. O termo desconstrução é usado para descrever o processo de desmantelamento e remoção seletiva de materiais de construção em vez da demolição tradicional. O sucesso da desconstrução vem em função do planeamento antecipado, da aplicação contínua das regras de segurança e da formação e informação para todos os trabalhadores. A triagem de materiais de demolição é de certa forma imposta pela preocupação das empresas que contribuem para a economia de recursos naturais. Esta metodologia é uma melhoria contínua, porém muito mais diversificados os materiais obtidos e a sua heterogeneidade. A correta gestão do fluxo de resíduos de construção e demolição é importante e o seu interesse na reciclagem de resíduos tem aumentado constantemente. Esse interesse é dirigido pelo grande volume desses materiais, os custos associados e uma maior consciência das oportunidades de reciclar. Auxiliando também no desenvolvimento dos mercados locais para os resíduos, tanto para os materiais que são diretamente reutilizados, como os que são reciclados, sendo novamente aplicados na construção civil. Esta dissertação aborda os métodos comummente utilizados na demolição de edifícios que dão mais atenção ao planeamento e execução dos trabalhos de demolição, garantindo a segurança no local de trabalho.
Resumo:
O presente trabalho foi realizado com o intuito de dar a conhecer, de um modo mais pormenorizado, os diferentes tipos de sistemas de revestimento de fachadas em zinco. Numa primeira fase abordou-se as características do metal zinco, assim como uma breve explicação do seu processo produtivo e a sua aplicação no campo da engenharia civil. O tema da sustentabilidade é também desenvolvido no que respeita à utilização do metal zinco na construção. Posteriormente serão especificadas certas propriedades do zinco laminado. É este tipo de zinco que será aplicado na envolvente exterior de edifícios. Numa fase posterior desenvolve-se a caracterização dos diversos tipos de sistemas construtivos de fachadas, com a respetiva descrição dos sistemas. São vários os sistemas disponíveis no mercado, sendo os mais utilizados em Portugal, os sistemas de junta agrafada, sistema de encaixe e sistema Camarinha. São ainda abordados os diversos suportes deste tipo de revestimento, as patologias que podem surgir e também as vantagens e limitações do zinco como material de revestimento. Por último é apresentado o estudo de um caso concreto, baseado num projeto de um edifício de habitação multifamiliar, e serão desenvolvidos aspetos como o tipo de sistema de fachada aplicado e o seu modo de execução, para além do estudo do desempenho térmico e acústico das fachadas e o seu custo de execução.
Resumo:
Trabalho Final de Mestrado para obtenção do grau de Mestre em Engenharia de Electrónica e Telecomunicações
Resumo:
Trabalho de Projeto submetido à Escola Superior de Teatro e Cinema para cumprimento dos requisitos necessários à obtenção do grau de Mestre em Desenvolvimento de Projeto Cinematográfico - especialização em Dramaturgia e Realização
Resumo:
Dissertação de Mestrado apresentado ao Instituto de Contabilidade e Administração do Porto para a obtenção do grau de Mestre em Auditoria sob orientação da Doutora Alcina Portugal Dias
Resumo:
Dissertação de Mestrado Apresentada ao Instituto de Contabilidade e Administração do Porto para a obtenção do grau de Mestre em Auditoria Orientador: Doutor Carlos Mota Coorientadora: Doutora Ana Paula Lopes
Resumo:
This paper is on an onshore variable speed wind turbine with doubly fed induction generator and under supervisory control. The control architecture is equipped with an event-based supervisor for the supervision level and fuzzy proportional integral or discrete adaptive linear quadratic as proposed controllers for the execution level. The supervisory control assesses the operational state of the variable speed wind turbine and sends the state to the execution level. Controllers operation are in the full load region to extract energy at full power from the wind while ensuring safety conditions required to inject the energy into the electric grid. A comparison between the simulations of the proposed controllers with the inclusion of the supervisory control on the variable speed wind turbine benchmark model is presented to assess advantages of these controls. (C) 2015 The Authors. Published by Elsevier Ltd. This is an open access article under the CC BY-NC-ND license (http://creativecommons.org/licenses/by-nc-nd/4.0/).
Resumo:
Recent integrated circuit technologies have opened the possibility to design parallel architectures with hundreds of cores on a single chip. The design space of these parallel architectures is huge with many architectural options. Exploring the design space gets even more difficult if, beyond performance and area, we also consider extra metrics like performance and area efficiency, where the designer tries to design the architecture with the best performance per chip area and the best sustainable performance. In this paper we present an algorithm-oriented approach to design a many-core architecture. Instead of doing the design space exploration of the many core architecture based on the experimental execution results of a particular benchmark of algorithms, our approach is to make a formal analysis of the algorithms considering the main architectural aspects and to determine how each particular architectural aspect is related to the performance of the architecture when running an algorithm or set of algorithms. The architectural aspects considered include the number of cores, the local memory available in each core, the communication bandwidth between the many-core architecture and the external memory and the memory hierarchy. To exemplify the approach we did a theoretical analysis of a dense matrix multiplication algorithm and determined an equation that relates the number of execution cycles with the architectural parameters. Based on this equation a many-core architecture has been designed. The results obtained indicate that a 100 mm(2) integrated circuit design of the proposed architecture, using a 65 nm technology, is able to achieve 464 GFLOPs (double precision floating-point) for a memory bandwidth of 16 GB/s. This corresponds to a performance efficiency of 71 %. Considering a 45 nm technology, a 100 mm(2) chip attains 833 GFLOPs which corresponds to 84 % of peak performance These figures are better than those obtained by previous many-core architectures, except for the area efficiency which is limited by the lower memory bandwidth considered. The results achieved are also better than those of previous state-of-the-art many-cores architectures designed specifically to achieve high performance for matrix multiplication.
Resumo:
Applications refactorings that imply the schema evolution are common activities in programming practices. Although modern object-oriented databases provide transparent schema evolution mechanisms, those refactorings continue to be time consuming tasks for programmers. In this paper we address this problem with a novel approach based on aspect-oriented programming and orthogonal persistence paradigms, as well as our meta-model. An overview of our framework is presented. This framework, a prototype based on that approach, provides applications with aspects of persistence and database evolution. It also provides a new pointcut/advice language that enables the modularization of the instance adaptation crosscutting concern of classes, which were subject to a schema evolution. We also present an application that relies on our framework. This application was developed without any concern regarding persistence and database evolution. However, its data is recovered in each execution, as well as objects, in previous schema versions, remain available, transparently, by means of our framework.