134 resultados para Distribuito, Modello, Attori, Software, quality, Scalabilità


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Empreendimentos industriais requerem o acompanhamento completo e preciso de dados de máquinas em tempo real, integrando as atividades do chão de fábrica com a engenharia, suporte e negócios. É reconhecido que sistemas de monitorização são fundamentais para melhorar a qualidade do produto, reduzir os tempos e para a adaptação rápida às mudanças de produção. Os sensores de processos possuem custos altos, não são compactos e são de difícil implementação. Portanto, seria estratégico desenvolver sistemas de monitorização que usufruem ao máximo dos recursos já existentes nas máquinas e ferramentas e que não representem custos adicionais elevados e de difícil implementação. O uso de PLC nas indústrias é crescente. Estes mostram-se como ferramentas potenciais para atender a estas exigências. Os PLC possuem os recursos necessários para a aquisição de informações e controlo das máquinas, facilitando a interação com um sistema SCADA. O objetivo do presente trabalho é pesquisar soluções sobre sistemas de monitorização que possam substituir um sistema instalado antiquado e encontrar uma solução para o controlo de um processo de vazamento. Para tal, foram consideradas duas soluções: uma passaria por desenvolver um sistema de monitorização que controlasse o processo de vazamento, e outra que permitisse ser o PLC a fazer o controlo, adquirindo um HMI apenas para monitorização. Esta última solução revelou-se como a melhor, visto que um PLC tem mais durabilidade em relação a um PC, em termos de atualizações de hardware e software. Assim, foram criadas funções no PLC para fazer o controlo de vazamento e foi adquirido uma consola Beijer, e respetivo software de programação SCADA, para a criação do sistema de monitorização. Os resultados mostram que o PLC é capaz de executar o controlo, não sendo necessário investir em PC que são mais caros, bastando para isso adquirir sistemas SCADA simples e capazes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Desde sempre o Homem procurou automatizar tarefas repetitivas. Tanto na indústria como no sector doméstico ou de comércio estão constantemente a surgir novos equipamentos procurando aumentar o nível de automação de diversas tarefas. A necessidade de empresas criadoras de produtos inovadores se manterem concorrenciais obrigou à adopção de métodos de projecto e planeamento mais estruturados e eficientes que eliminem os desperdícios tanto de material como de tempo. Diversas construções em termos orçamentais e o aumento da procura de produtos de alta qualidade a baixo custo deu origem a um novo tipo de programas, os programas de simulação virtual. Tal como na indústria, também na investigação nas Instituições de Ensino Superior se procuram adoptar os métodos de trabalho mais eficientes possíveis. Uma parte dos programas de simulação robótica utilizados hoje em dia na investigação no Instituto Superior de Engenharia do Porto estão concebidos em linguagem C. Embora esta linguagem seja extremamente capaz, existem métodos mais adequados de simulação que aceleram o processo de modelação permitindo a visualização do movimento e simulação de diversas situações potencialmente criticas sem existir a necessidade de construção de um protótipo funcional do robô. Durante o último ano, este projecto permitiu construir um modelo de um robô quadrúpede num programa de simulação virtual chamado Simmechanics™. Embora haja já algum trabalho desenvolvido nesta área, constatou-se que a informação existente possuía algumas lacunas. Com o trabalho desenvolvido preparou-se esta dissertação que pretende clarificar algumas questões que surgem na modelação de um robô. Neste documento explica-se como modelar um robô de corpo flexível, modelar as pernas e as respectivas juntas da anca e do joelho assim como também se apresenta a modelação de um contacto com o solo recorrendo a um modelo descrito na literatura. Este documento foi escrito a pensar no leitor, procurando-se explicar de forma simples mas concisa os diversos passos necessários para construir um modelo virtual de um robô. O autor espera, desta forma, ajudar futuros colegas que pretendam trabalhar com o Simmechanics™ a mais facilmente se integrarem com o programa aumentando desta forma o declive da curva de aprendizagem e permitindo um maior aproveitamento desta ferramenta.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Recent embedded processor architectures containing multiple heterogeneous cores and non-coherent caches renewed attention to the use of Software Transactional Memory (STM) as a building block for developing parallel applications. STM promises to ease concurrent and parallel software development, but relies on the possibility of abort conflicting transactions to maintain data consistency, which in turns affects the execution time of tasks carrying transactions. Because of this fact the timing behaviour of the task set may not be predictable, thus it is crucial to limit the execution time overheads resulting from aborts. In this paper we formalise a FIFO-based algorithm to order the sequence of commits of concurrent transactions. Then, we propose and evaluate two non-preemptive and one SRP-based fully-preemptive scheduling strategies, in order to avoid transaction starvation.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Presented at INForum - Simpósio de Informática (INFORUM 2015). 7 to 8, Sep, 2015. Covilhã, Portugal.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Both managers and scholars have convictions about the organizational approaches that best support organizational performance of the respective organizations and its Quality Management Systems. After a literature review of ISO 9001 Quality Management Systems (including the changes introduced by the 2015 edition), Organizational Culture theories are addressed and input from a CEO´s focus group was gathered. The importance of organizational culture for the success of Quality Management Systems and the achievement of the organizational desired results is highlighted. The article advances a proposal to analyze ISO 9001 International Standard through the lens of organizational culture theories identifying a stronger open systems approach (influence of the environment, dynamic perspective, need for survival) of the 2015 ISO 9001 edition when compared with the 2008 one. This provides additional knowledge both to scholars and practitioners for a better understanding of the culture issues that can maximize ISO 9001 Quality Management Systems 2015 edition contributions to organizational enduring success.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This research focuses on the influence of company sector and size on the level of utilization of Basic and Advanced Quality Tools. The paper starts with a literature review and then presents the methodology used for the survey. Based on the responses from 202 managers of Portuguese ISO 9001:2008 Quality Management System certified organizations, statistical tests were performed. Results show, with 95% confidence level, that industry and services have a similar proportion of use of Basic and Advanced Quality Tools. Concerning size, bigger companies show a higher trend to use Advanced Quality Tools than smaller ones. For Basic Quality Tools, there was no statistical significant difference at a 95% confidence level for different company sizes. The three basic Quality tools with higher utilization were Check sheets, Flow charts and Histograms (for Services) or Control Charts/ (for Industry), however 22% of the surveyed organizations reported not using Basic Quality Tools, which highlights a major improvement opportunity for these companies. Additional studies addressing motivations, benefits and barriers for Quality Tools application should be undertaken for further validation and understanding of these results.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The recent technological advancements and market trends are causing an interesting phenomenon towards the convergence of High-Performance Computing (HPC) and Embedded Computing (EC) domains. On one side, new kinds of HPC applications are being required by markets needing huge amounts of information to be processed within a bounded amount of time. On the other side, EC systems are increasingly concerned with providing higher performance in real-time, challenging the performance capabilities of current architectures. The advent of next-generation many-core embedded platforms has the chance of intercepting this converging need for predictable high-performance, allowing HPC and EC applications to be executed on efficient and powerful heterogeneous architectures integrating general-purpose processors with many-core computing fabrics. To this end, it is of paramount importance to develop new techniques for exploiting the massively parallel computation capabilities of such platforms in a predictable way. P-SOCRATES will tackle this important challenge by merging leading research groups from the HPC and EC communities. The time-criticality and parallelisation challenges common to both areas will be addressed by proposing an integrated framework for executing workload-intensive applications with real-time requirements on top of next-generation commercial-off-the-shelf (COTS) platforms based on many-core accelerated architectures. The project will investigate new HPC techniques that fulfil real-time requirements. The main sources of indeterminism will be identified, proposing efficient mapping and scheduling algorithms, along with the associated timing and schedulability analysis, to guarantee the real-time and performance requirements of the applications.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Quality of life is a concept influenced by social, economic, psychological, spiritual or medical state factors. More specifically, the perceived quality of an individual's daily life is an assessment of their well-being or lack of it. In this context, information technologies may help on the management of services for healthcare of chronic patients such as estimating the patient quality of life and helping the medical staff to take appropriate measures to increase each patient quality of life. This paper describes a Quality of Life estimation system developed using information technologies and the application of data mining algorithms to access the information of clinical data of patients with cancer from Otorhinolaryngology and Head and Neck services of an oncology institution. The system was evaluated with a sample composed of 3013 patients. The results achieved show that there are variables that may be significant predictors for the Quality of Life of the patient: years of smoking (p value 0.049) and size of the tumor (p value < 0.001). In order to assign the variables to the classification of the quality of life the best accuracy was obtained by applying the John Platt's sequential minimal optimization algorithm for training a support vector classifier. In conclusion data mining techniques allow having access to patients additional information helping the physicians to be able to know the quality of life and produce a well-informed clinical decision.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo deste trabalho é o desenvolvimento de frameworks de testes automáticos de software. Este tipo de testes normalmente está associado ao modelo evolucionário e às metodologias ágeis de desenvolvimento de software, enquanto que os testes manuais estão relacionados com o modelo em cascata e as metodologias tradicionais. Como tal foi efetuado um estudo comparativo sobre os tipos de metodologias e de testes existentes, para decidir quais os que melhor se adequavam ao projeto e dar resposta à questão "Será que realmente compensa realizar testes (automáticos)?". Finalizado o estudo foram desenvolvidas duas frameworks, a primeira para a implementação de testes funcionais e unitários sem dependências a ser utilizada pelos estagiários curriculares da LabOrders, e a segunda para a implementação de testes unitários com dependências externas de base de dados e serviços, a ser utilizada pelos funcionários da empresa. Nas últimas duas décadas as metodologias ágeis de desenvolvimento de software não pararam de evoluir, no entanto as ferramentas de automação não conseguiram acompanhar este progresso. Muitas áreas não são abrangidas pelos testes e por isso alguns têm de ser feitos manualmente. Posto isto foram criadas várias funcionalidades inovadoras para aumentar a cobertura dos testes e tornar as frameworks o mais intuitivas possível, nomeadamente: 1. Download automático de ficheiros através do Internet Explorer 9 (e versões mais recentes). 2. Análise do conteúdo de ficheiros .pdf (através dos testes). 3. Obtenção de elementos web e respetivos atributos através de código jQuery utilizando a API WebDriver com PHP bindings. 4. Exibição de mensagens de erro personalizadas quando não é possível encontrar um determinado elemento. As frameworks implementadas estão também preparadas para a criação de outros testes (de carga, integração, regressão) que possam vir a ser necessários no futuro. Foram testadas em contexto de trabalho pelos colaboradores e clientes da empresa onde foi realizado o projeto de mestrado e os resultados permitiram concluir que a adoção de uma metodologia de desenvolvimento de software com testes automáticos pode aumentar a produtividade, reduzir as falhas e potenciar o cumprimento de orçamentos e prazos dos projetos das organizações.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O âmbito deste trabalho envolve o teste do modelo BIM numa obra em construção pela Mota-Engil – Engenharia, na extração experimental de peças desenhadas de preparação e apoio à execução de obra. No capítulo 1 deste relatório são definidos o âmbito e os objetivos deste trabalho, é feito um enquadramento histórico do tema e abordados conceitos e atividades da preparação de obra, na sua forma tradicional. O estado do conhecimento da preparação de obras e mais em concreto da tecnologia BIM a nível nacional e internacional é abordado no capítulo 2. Nesse sentido procura-se definir os conceitos principais inerentes a esta nova metodologia, que passa por identificar e caraterizar a tecnologia envolvida e o seu nível de desenvolvimento. Com suporte em casos práticos de preparação de obra na sua forma tradicional, identificados e desenvolvidos no capítulo 3, foi compilado um processo tipo de peças desenhadas de suporte identificadas e caracterizadas no capítulo 4, frequentes e comuns à execução de diversos tipos de obras de edifícios. Assente na compilação baseada em casos práticos e no estudo do projeto de execução da empreitada que sustenta o presente trabalho, com base no qual o modelo BIM foi concebido, identificou-se um conjunto de peças desenhadas de preparação e apoio à execução dos trabalhos, em 2D, a extrair do modelo. No capítulo 5, é feita uma descrição do modo como foi estudado o projeto da obra, com evidência para os fatores mais relevantes, especificando os desenhos a extrair. Suportada pelo programa de modelação ArchiCAD, a extração do conjunto de desenhos identificados anteriormente foi conseguida com recurso às funcionalidades disponíveis no software, que permite a criação de desenhos 2D atualizáveis ou não automaticamente a partir do modelo. Qualquer alteração introduzida no modelo virtual é automaticamente atualizada nos desenhos bidimensionais, caso o utilizador assim o pretenda. Ao longo desse trabalho foram detetados e analisados os condicionalismos inerentes ao processo de extração, referidos no capítulo 6, para estabelecimento de regras de modelação padrão a adotar em futuras empreitadas, que possam simplificar a obtenção dos elementos desenhados de preparação necessários à sua execução. No ponto 6.3 são identificadas melhorias a introduzir no modelo. Em conclusão no capítulo 7 são abordadas especificidades do setor da construção que sustentam e evidenciam cada vez mais a necessidade de utilizar as novas tecnologias com vista à adoção de práticas e ferramentas padrão de apoio à execução de obras. Sendo a tecnologia BIM, transversal a todo o setor, a sua utilização com regras padrão na conceção dos modelos e na extração de dados, potencia a otimização dos custos, do tempo, dos recursos e da qualidade final de um empreendimento, ao longo de todo o seu ciclo de vida, para além de apoiar com elevada fiabilidade as tomadas de decisão ao longo desse período. A tecnologia BIM, possibilita a antevisão do edifício a construir com um elevado grau de pormenor, com todas as vantagens que daí advêm.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The Internet of Things (IoT) has emerged as a paradigm over the last few years as a result of the tight integration of the computing and the physical world. The requirement of remote sensing makes low-power wireless sensor networks one of the key enabling technologies of IoT. These networks encompass several challenges, especially in communication and networking, due to their inherent constraints of low-power features, deployment in harsh and lossy environments, and limited computing and storage resources. The IPv6 Routing Protocol for Low Power and Lossy Networks (RPL) [1] was proposed by the IETF ROLL (Routing Over Low-power Lossy links) working group and is currently adopted as an IETF standard in the RFC 6550 since March 2012. Although RPL greatly satisfied the requirements of low-power and lossy sensor networks, several issues remain open for improvement and specification, in particular with respect to Quality of Service (QoS) guarantees and support for mobility. In this paper, we focus mainly on the RPL routing protocol. We propose some enhancements to the standard specification in order to provide QoS guarantees for static as well as mobile LLNs. For this purpose, we propose OF-FL (Objective Function based on Fuzzy Logic), a new objective function that overcomes the limitations of the standardized objective functions that were designed for RPL by considering important link and node metrics, namely end-to-end delay, number of hops, ETX (Expected transmission count) and LQL (Link Quality Level). In addition, we present the design of Co-RPL, an extension to RPL based on the corona mechanism that supports mobility in order to overcome the problem of slow reactivity to frequent topology changes and thus providing a better quality of service mainly in dynamic networks application. Performance evaluation results show that both OF-FL and Co-RPL allow a great improvement when compared to the standard specification, mainly in terms of packet loss ratio and average network latency. 2015 Elsevier B.V. Al

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Because of the scientific evidence showing that arsenic (As), cadmium (Cd), and nickel (Ni) are human genotoxic carcinogens, the European Union (EU) recently set target values for metal concentration in ambient air (As: 6 ng/m3, Cd: 5 ng/m3, Ni: 20 ng/m3). The aim of our study was to determine the concentration levels of these trace elements in Porto Metropolitan Area (PMA) in order to assess whether compliance was occurring with these new EU air quality standards. Fine (PM2.5) and inhalable (PM10) air particles were collected from October 2011 to July 2012 at two different (urban and suburban) locations in PMA. Samples were analyzed for trace elements content by inductively coupled plasma–mass spectrometry (ICP-MS). The study focused on determination of differences in trace elements concentration between the two sites, and between PM2.5 and PM10, in order to gather information regarding emission sources. Except for chromium (Cr), the concentration of all trace elements was higher at the urban site. However, results for As, Cd, Ni, and lead (Pb) were well below the EU limit/target values (As: 1.49 ± 0.71 ng/m3; Cd: 1.67 ± 0.92 ng/m3; Ni: 3.43 ± 3.23 ng/m3; Pb: 17.1 ± 10.1 ng/m3) in the worst-case scenario. Arsenic, Cd, Ni, Pb, antimony (Sb), selenium (Se), vanadium (V), and zinc (Zn) were predominantly associated to PM2.5, indicating that anthropogenic sources such as industry and road traffic are the main source of these elements. High enrichment factors (EF > 100) were obtained for As, Cd, Pb, Sb, Se, and Zn, further confirming their anthropogenic origin.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Sabendo que as energias de origem fóssil não são inesgotáveis e que afetam a qualidade do ambiente, nos últimos anos, o interesse pelas energias renováveis mereceu a atenção de ambientalistas e de governantes. Para diminuir a importação de energia, o próprio governo de Portugal incentivou, através de medidas legislativas diversas, a instalação de sistemas alternativos de produção elétrica. Face à pertinência desta matéria, a dissertação, Viabilidade Técnica e Económica das Diferentes Tecnologias de Microprodução, aborda o aproveitamento de energias renováveis através de tecnologias de Microprodução ligadas à rede elétrica. Nesta dissertação, numa primeira fase, apresentam-se os sistemas de microprodução existentes no mercado, descrevem-se os componentes que os constituem e destacam-se os aspetos legislativos aplicáveis. Numa segunda fase, com o objetivo de suportar a elaboração de uma ferramenta informática para apoio na escolha de equipamentos de microprodução, procede-se à análise financeira de tecnologias de microprodução, indicando os modelos matemáticos necessários. Um dos objetivos da dissertação, consiste na construção de uma ferramenta informática de cálculo e na sua aplicação a dois estudos de caso. Esse programa informático foi elaborado em Excel e é capaz de fornecer uma estimativa da produção de energia anual e da avaliação da viabilidade técnico-económica de cada tecnologia e pretende apoiar a decisão do investidor em tecnologias de microprodução. Tendo sido realizados dois estudos de caso - um edifício habitacional unifamiliar e um edifício Industrial – foi possível verificar o funcionamento da aplicação e a sua utilidade na determinação da solução mais vantajosa na escolha de uma tecnologia de microprodução, uma vez que, introduzidos os dados adequados, são gerados os cálculos que permitem fornecer uma visão de conjunto, possibilitando a comparação das diferentes propostas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In this work an adaptive modeling and spectral estimation scheme based on a dual Discrete Kalman Filtering (DKF) is proposed for speech enhancement. Both speech and noise signals are modeled by an autoregressive structure which provides an underlying time frame dependency and improves time-frequency resolution. The model parameters are arranged to obtain a combined state-space model and are also used to calculate instantaneous power spectral density estimates. The speech enhancement is performed by a dual discrete Kalman filter that simultaneously gives estimates for the models and the signals. This approach is particularly useful as a pre-processing module for parametric based speech recognition systems that rely on spectral time dependent models. The system performance has been evaluated by a set of human listeners and by spectral distances. In both cases the use of this pre-processing module has led to improved results.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In this work an adaptive filtering scheme based on a dual Discrete Kalman Filtering (DKF) is proposed for Hidden Markov Model (HMM) based speech synthesis quality enhancement. The objective is to improve signal smoothness across HMMs and their related states and to reduce artifacts due to acoustic model's limitations. Both speech and artifacts are modelled by an autoregressive structure which provides an underlying time frame dependency and improves time-frequency resolution. Themodel parameters are arranged to obtain a combined state-space model and are also used to calculate instantaneous power spectral density estimates. The quality enhancement is performed by a dual discrete Kalman filter that simultaneously gives estimates for the models and the signals. The system's performance has been evaluated using mean opinion score tests and the proposed technique has led to improved results.