167 resultados para embedded cracks
Resumo:
Energy consumption is one of the major issues for modern embedded systems. Early, power saving approaches mainly focused on dynamic power dissipation, while neglecting the static (leakage) energy consumption. However, technology improvements resulted in a case where static power dissipation increasingly dominates. Addressing this issue, hardware vendors have equipped modern processors with several sleep states. We propose a set of leakage-aware energy management approaches that reduce the energy consumption of embedded real-time systems while respecting the real-time constraints. Our algorithms are based on the race-to-halt strategy that tends to run the system at top speed with an aim to create long idle intervals, which are used to deploy a sleep state. The effectiveness of our algorithms is illustrated with an extensive set of simulations that show an improvement of up to 8% reduction in energy consumption over existing work at high utilization. The complexity of our algorithms is smaller when compared to state-of-the-art algorithms. We also eliminate assumptions made in the related work that restrict the practical application of the respective algorithms. Moreover, a novel study about the relation between the use of sleep intervals and the number of pre-emptions is also presented utilizing a large set of simulation results, where our algorithms reduce the experienced number of pre-emptions in all cases. Our results show that sleep states in general can save up to 30% of the overall number of pre-emptions when compared to the sleep-agnostic earliest-deadline-first algorithm.
Resumo:
Consider scheduling of real-time tasks on a multiprocessor where migration is forbidden. Specifically, consider the problem of determining a task-to-processor assignment for a given collection of implicit-deadline sporadic tasks upon a multiprocessor platform in which there are two distinct types of processors. For this problem, we propose a new algorithm, LPC (task assignment based on solving a Linear Program with Cutting planes). The algorithm offers the following guarantee: for a given task set and a platform, if there exists a feasible task-to-processor assignment, then LPC succeeds in finding such a feasible task-to-processor assignment as well but on a platform in which each processor is 1.5 × faster and has three additional processors. For systems with a large number of processors, LPC has a better approximation ratio than state-of-the-art algorithms. To the best of our knowledge, this is the first work that develops a provably good real-time task assignment algorithm using cutting planes.
Resumo:
“Many-core” systems based on a Network-on-Chip (NoC) architecture offer various opportunities in terms of performance and computing capabilities, but at the same time they pose many challenges for the deployment of real-time systems, which must fulfill specific timing requirements at runtime. It is therefore essential to identify, at design time, the parameters that have an impact on the execution time of the tasks deployed on these systems and the upper bounds on the other key parameters. The focus of this work is to determine an upper bound on the traversal time of a packet when it is transmitted over the NoC infrastructure. Towards this aim, we first identify and explore some limitations in the existing recursive-calculus-based approaches to compute the Worst-Case Traversal Time (WCTT) of a packet. Then, we extend the existing model by integrating the characteristics of the tasks that generate the packets. For this extended model, we propose an algorithm called “Branch and Prune” (BP). Our proposed method provides tighter and safe estimates than the existing recursive-calculus-based approaches. Finally, we introduce a more general approach, namely “Branch, Prune and Collapse” (BPC) which offers a configurable parameter that provides a flexible trade-off between the computational complexity and the tightness of the computed estimate. The recursive-calculus methods and BP present two special cases of BPC when a trade-off parameter is 1 or ∞, respectively. Through simulations, we analyze this trade-off, reason about the implications of certain choices, and also provide some case studies to observe the impact of task parameters on the WCTT estimates.
Resumo:
BACKGROUND: Bladder cancer is a significant health problem in rural areas of Africa and the Middle East where Schistosoma haematobium is prevalent, supporting an association between malignant transformation and infection by this blood fluke. Nevertheless, the molecular mechanisms linking these events are poorly understood. Bladder cancers in infected populations are generally diagnosed at a late stage since there is a lack of non-invasive diagnostic tools, hence enforcing the need for early carcinogenesis markers. METHODOLOGY/PRINCIPAL FINDINGS: Forty-three formalin-fixed paraffin-embedded bladder biopsies of S. haematobium-infected patients, consisting of bladder tumours, tumour adjacent mucosa and pre-malignant/malignant urothelial lesions, were screened for bladder cancer biomarkers. These included the oncoprotein p53, the tumour proliferation rate (Ki-67>17%), cell-surface cancer-associated glycan sialyl-Tn (sTn) and sialyl-Lewisa/x (sLea/sLex), involved in immune escape and metastasis. Bladder tumours of non-S. haematobium etiology and normal urothelium were used as controls. S. haematobium-associated benign/pre-malignant lesions present alterations in p53 and sLex that were also found in bladder tumors. Similar results were observed in non-S. haematobium associated tumours, irrespectively of their histological nature, denoting some common molecular pathways. In addition, most benign/pre-malignant lesions also expressed sLea. However, proliferative phenotypes were more prevalent in lesions adjacent to bladder tumors while sLea was characteristic of sole benign/pre-malignant lesions, suggesting it may be a biomarker of early carcionogenesis associated with the parasite. A correlation was observed between the frequency of the biomarkers in the tumor and adjacent mucosa, with the exception of Ki-67. Most S. haematobium eggs embedded in the urothelium were also positive for sLea and sLex. Reinforcing the pathologic nature of the studied biomarkers, none was observed in the healthy urothelium. CONCLUSION/SIGNIFICANCE: This preliminary study suggests that p53 and sialylated glycans are surrogate biomarkers of bladder cancerization associated with S. haematobium, highlighting a missing link between infection and cancer development. Eggs of S. haematobium express sLea and sLex antigens in mimicry of human leukocytes glycosylation, which may play a role in the colonization and disease dissemination. These observations may help the early identification of infected patients at a higher risk of developing bladder cancer and guide the future development of non-invasive diagnostic tests.
Resumo:
The application of mathematical methods and computer algorithms in the analysis of economic and financial data series aims to give empirical descriptions of the hidden relations between many complex or unknown variables and systems. This strategy overcomes the requirement for building models based on a set of ‘fundamental laws’, which is the paradigm for studying phenomena usual in physics and engineering. In spite of this shortcut, the fact is that financial series demonstrate to be hard to tackle, involving complex memory effects and a apparently chaotic behaviour. Several measures for describing these objects were adopted by market agents, but, due to their simplicity, they are not capable to cope with the diversity and complexity embedded in the data. Therefore, it is important to propose new measures that, on one hand, are highly interpretable by standard personal but, on the other hand, are capable of capturing a significant part of the dynamical effects.
Resumo:
Mobile devices are embedded systems with very limited capacities that need to be considered when developing a client-server application, mainly due to technical, ergonomic and economic implications to the mobile user. With the increasing popularity of mobile computing, many developers have faced problems due to low performance of devices. In this paper, we discuss how to optimize and create client-server applications for in wireless/mobile environments, presenting techniques to improve overall performance.
Resumo:
O uso da tecnologia tem crescido nas últimas décadas nas mais diversas áreas, seja na indústria ou no dia-a-dia, e é cada vez mais evidente os benefícios que traz. No desporto não é diferente. Cada dia surgem novos desenvolvimentos objetivando a melhoria do desempenho dos praticantes de atividades físicas, possibilitando atingir resultados nunca antes pensados. Além disto, a utilização da tecnologia no desporto permite a obtenção de dados biomecânicos que podem ser utilizados tanto no treinamento quando na melhoria da qualidade de vida dos atletas auxiliando na prevenção de lesões, por exemplo. Deste modo, o presente projeto se aplica na área do desporto, nomeadamente, na modalidade do surfe, onde a ausência de trabalhos científicos ainda é elevada, aliando a tecnologia eletrônica ao desporto para quantificar informações até então desconhecidas. Três fatores básicos de desempenho foram levantados, sendo eles: equilíbrio, posicionamento dos pés e movimentação da prancha de surfe. Estes fatores levaram ao desenvolvimento de um sistema capaz de medi-los dinamicamente através da medição das forças plantares e da rotação da prancha de surfe. Além da medição dos fatores, o sistema é capaz de armazenar os dados adquiridos localmente através de um cartão de memória, para posterior análise; e também enviá-los através de uma comunicação sem fio, permitindo a visualização do centro de pressões plantares; dos ângulos de rotação da prancha de surfe; e da ativação dos sensores; em tempo real. O dispositivo consiste em um sistema eletrônico embarcado composto por um microcontrolador ATMEGA1280; um circuito de aquisição e condicionamento de sinal analógico; uma central inercial; um módulo de comunicação sem fio RN131; e um conjunto de sensores de força Flexiforce. O firmware embarcado foi desenvolvido em linguagem C. O software Matlab foi utilizado para receção de dados e visualização em tempo real. Os testes realizados demostraram que o funcionamento do sistema atende aos requisitos propostos, fornecendo informação acerca do equilíbrio, através do centro de pressões; do posicionamento dos pés, através da distribuição das pressões plantares; e do movimento da prancha nos eixos pitch e roll, através da central inercial. O erro médio de medição de força verificado foi de -0.0012 ± 0.0064 N, enquanto a mínima distância alcançada na transmissão sem fios foi de 100 m. A potência medida do sistema foi de 330 mW.
Resumo:
Os osciloscópios digitais são utilizados em diversas áreas do conhecimento, assumindo-se no âmbito da engenharia electrónica, como instrumentos indispensáveis. Graças ao advento das Field Programmable Gate Arrays (FPGAs), os instrumentos de medição reconfiguráveis, dadas as suas vantagens, i.e., altos desempenhos, baixos custos e elevada flexibilidade, são cada vez mais uma alternativa aos instrumentos tradicionalmente usados nos laboratórios. Tendo como objectivo a normalização no acesso e no controlo deste tipo de instrumentos, esta tese descreve o projecto e implementação de um osciloscópio digital reconfigurável baseado na norma IEEE 1451.0. Definido de acordo com uma arquitectura baseada nesta norma, as características do osciloscópio são descritas numa estrutura de dados denominada Transducer Electronic Data Sheet (TEDS), e o seu controlo é efectuado utilizando um conjunto de comandos normalizados. O osciloscópio implementa um conjunto de características e funcionalidades básicas, todas verificadas experimentalmente. Destas, destaca-se uma largura de banda de 575kHz, um intervalo de medição de 0.4V a 2.9V, a possibilidade de se definir um conjunto de escalas horizontais, o nível e declive de sincronismo e o modo de acoplamento com o circuito sob análise. Arquitecturalmente, o osciloscópio é constituído por um módulo especificado com a linguagem de descrição de hardware (HDL, Hardware Description Language) Verilog e por uma interface desenvolvida na linguagem de programação Java®. O módulo é embutido numa FPGA, definindo todo o processamento do osciloscópio. A interface permite o seu controlo e a representação do sinal medido. Durante o projecto foi utilizado um conversor Analógico/Digital (A/D) com uma frequência máxima de amostragem de 1.5MHz e 14 bits de resolução que, devido às suas limitações, obrigaram à implementação de um sistema de interpolação multi-estágio com filtros digitais.
Resumo:
In this work tubular fiber reinforced specimens are tested for fatigue life. The specimens are biaxially loaded with tension and shear stresses, with a load angle β of 30° and 60° and a load ratio of R=0,1. There are many factors that affect fatigue life of a fiber reinforced material and the main goal of this work is to study the effects of load ratio R by obtaining S-N curves and compare them to the previous works (1). All the other parameters, such as specimen production, fatigue loading frequency and temperature, will be the same as for the previous tests. For every specimen, stiffness, temperature of the specimen during testing, crack counting and final fracture mode are obtained. Prior to testing, a study if the literature regarding the load ratio effects on composites fatigue life and with that review estimate the initial stresses to be applied in testing. In previous works (1) similar specimens have only been tested for a load ratio of R=-1 and therefore the behaviour of this tubular specimens for a different load ratio is unknown. All the data acquired will be analysed and compared to the previous works, emphasizing the differences found and discussing the possible explanations for those differences. The crack counting software, developed at the institute, has shown useful before, however different adjustments to the software parameters lead to different cracks numbers for the same picture, and therefore a better methodology will be discussed to improve the crack counting results. After the specimen’s failure, all the data will be collected and stored and fibre volume content for every specimen is also determinate. The number of tests required to make the S-N curves are obtained according to the existent standards. Additionally are also identified some improvements to the testing machine setup and to the procedures for future testing.
Resumo:
As empresas necessitam de ver os seus desempenhos e resultados constantemente melhorados ao nível da qualidade e eficiência. Quando deparamos com a problemática industrial, parece não haver dúvidas de que a metodologia aplicada, a inovação e o capital de investimento a médio e a longo prazo, são decisivos para o crescimento de uma empresa. Das várias estratégias e metodologias que são aplicadas nas empresas, a filosofia Lean surge como uma poderosa metodologia de melhoria de processos. O objetivo deste trabalho assenta na seleção e aplicação de uma das ferramentas da metodologia Lean numa unidade industrial. Foi selecionada a ferramenta 5S para implementação numa empresa de transformação e comercialização de vidro plano. Com a implementação da ferramenta 5S atuou-se sobre os desperdícios, identificando e implementando diversas melhorias no processo. Face às evidentes melhorias observadas, pretende-se alargar o processo a todas as áreas da empresa com vista à melhoria contínua.
Resumo:
A seleção de fornecedores é considerada atualmente estratégica para as empresas que estão inseridas em ambientes cada vez mais dinâmicos e exigentes. Nesta dissertação são determinados os critérios e métodos mais usados no problema de seleção de fornecedores. Para estes serem alcançados, analisaram-se artigos da área e de ilustres autores para assim se perceber quais os critérios das áreas mais influentes, na hora de tomada de decisão sobre os melhores fornecedores para as empresas. A partir deste estudo foi construído um inquérito de resposta curta, enviado a empresas a laborar em Portugal, para se obter as importâncias dadas aos critérios por parte das empresas. Com estas respostas conclui-se que critérios relacionados com a qualidade e o custo são os mais relevantes. Relativamente aos métodos, foram estudados teórica e praticamente, o AHP e o SMART. O primeiro por ser o mais referenciado nos artigos estudados e o segundo por ser o mais simples de implementar e usar. No SMART foram criadas as funções valor para regerem o funcionamento do método. Estas funções foram desenvolvidas de raiz, com base num estudo bibliográfico prévio para cada um dos subcritérios, para se entender qual o melhor tipo de função a aplicar definindo matematicamente melhor o comportamento de cada um deles. A tomada de decisão é bastante importante nas organizações, pois pode conduzir ao sucesso ou insucesso. Assim é explicado a envolvente da tomada de decisão, o problema da seleção dos fornecedores, como se desenvolve o processo de seleção e quais são os métodos existentes para auxiliar a escolha dos mesmos. Por fim é apresentado o modelo proposto baseado nos resultados obtidos através do inquérito, e a aplicação dos dois métodos (AHP e SMART) para um melhor entendimento dos mesmos.
Resumo:
Para garantir que um equipamento opere com segurança e fiabilidade durante o seu ciclo de vida, desde a sua instalação ao desmantelamento, devem ser realizadas inspeções e/ou monitorizações que, dependendo dos dados recolhidos, podem implicar avaliações Fitness- For-Service (FFS) que definirão a necessidade de reparação ou alteração do equipamento ou das condições processuais. A combinação de inspeção ou monitorização com os melhores procedimentos e técnicas de avaliação atuais fazem sobressair insuficiências dos procedimentos mais antigos. Usando métodos mais avançados de avaliação, validados e suportados através de uma vasta experiência de campo, pode-se agora avaliar defeitos nos ativos (equipamentos) e determinar a adequação ao serviço com uma análise FFS. As análises FFS tornaram-se cada vez mais aceites em toda a indústria ao longo dos últimos anos. A norma API 579 - 1/ASME FFS-1: 2007 fornece diretrizes para avaliar os tipos de danos que afetam os equipamentos processuais e a norma API RP 571: 2011 descreve os mecanismos de degradação que afetam os equipamentos nas petroquímicas e refinarias, que incluem os danos por corrosão, desalinhamentos, deformações plásticas, laminações, fissuras, entre outros. Este trabalho consiste na análise de Integridade Estrutural de uma Flare Industrial que surgiu da necessidade real de análise do equipamento no âmbito da atividade profissional do candidato. O estudo realizado a nível profissional é de grande abrangência, incluindo a inspeção do equipamento, identificação da falha ou dano, recolha e registo de dados, definição de estratégia de atuação e seleção de técnicas de avaliação da condição para posterior alteração, reparação ou desmantelamento. Na presente dissertação de mestrado em Engenharia Mecânica, Ramo Construções Mecânicas, pretende-se efetuar o estudo aprofundado de uma das etapas de projeto, nomeadamente estudar a causa, avaliar a falha e implicações estruturais ou processuais devido à degradação interior do riser de uma flare, com base numa análise FFS, assumindo a operabilidade em segurança e garantindo resolutas condições de funcionamento. A presente análise FFS tem como finalidade validar ou não a integridade atual (avaliação técnica quantitativa) de modo a conhecer se o item em questão é seguro e confiável para continuar a operar em condições específicas durante um período de tempo determinado, tendo em consideração as condições verificadas no ato de inspeção e especificações de projeto, segundo os itens de verificação de segurança estabelecidos na norma EN 1990:2002/A1:2005/AC:2010 e com base na norma API 579-1/ASME FFS-1: 2007. No âmbito do presente trabalho foram realizadas as seguintes tarefas: - Identificar e analisar os mecanismos de degradação com base na norma API RP 571: 2011, face às condições processuais e geométricas que o equipamento em análise está sujeito de modo a perceber a evolução da degradação estrutural e quais as implicações na sua longevidade. - Avaliar e propor soluções de reparação e ou alterações processuais e ou geométricas do equipamento em análise de modo a permitir a continuidade em funcionamento sem afetar as condições de segurança e por conseguinte minimizar ou evitar o elevado custo económico associado a um novo equipamento e tempo de paragem processual. - Assumir limites estruturais face às condições processuais e ações externas ou adjacentes. - Garantir a segurança e qualidade da vida humana ou meio que o rodeia, do equipamento, das instalações, das infraestruturas envolventes e evitar o colapso económico, quer por motivos processuais, quer indeminizações ou agravamento do prémio do seguro. Verificou-se que os resultados serão a base para as alterações inerentes, tais como reforço estrutural, alteração da geometria do defletor, ajuste no tensionamento dos cabos e controlo da espessura mínima, de modo a alargar o período de vida útil da flare com segurança.
Resumo:
A manutenção, durante vários anos, traduziu-se num conceito paliativo de instalações e equipamentos, o que se veio a revelar como uma atitude negligente perante o Homem e o Ambiente. As preocupações ambientais estão na ordem do dia e têm sido muitas as vozes que se têm levantado para que o consumo de energia seja mais equilibrado e para que as emissões de CO2 diminuam de forma a preservar o Planeta. De acordo com a resolução do Conselho Europeu, em 2007 (1), foi apresentado um pacote de propostas que visam a sustentabilidade e estimulam a Eficiência Energética (EE), com o objectivo de reduzir os consumos energéticos dos edifícios, quer estes sejam novos ou reabilitados. Segundo a Direcção Geral de Energia e Geologia os edifícios são responsáveis por 60% dos consumos de energia eléctrica, consumo esse que pode ser reduzido em mais de 50%, através de medidas de EE, traduzindo-se numa redução de 400 milhões de toneladas de CO2 por ano. (2) Para além de medidas de EE, também as práticas de manutenção preventiva podem contribuir para a diminuição dos consumos energéticos e de emissões de CO2. Segundo o Institute for Building Efficiency práticas de manutenção preventiva em equipamentos de Aquecimento Ventilação e Ar Condicionado (AVAC) reduzem os consumos energéticos de 10 a 20% e, em contrapartida, a negligência na execução da manutenção pode aumentar os consumos energéticos de 30 a 60%. (3) Uma outra análise de valores a ter em conta, é a Intensidade Energética (IE). Leia-se IE como sendo o valor global da energia consumida num país a dividir pelo seu produto interno bruto. A contribuição do sector dos serviços para a IE nacional era de 17% no ano de 2005. (4) Se a estes dados acrescentarmos que 70% dessa energia é consumida por equipamentos AVAC (5) e que práticas de manutenção reduzem esses valores entre 10 a 20%, pode concluir-se que a redução de custos energéticos associada à manutenção preventiva é efectiva e significativa. Apresentando um cenário ideal e hipotético, se ao contributo do sector dos serviços, para a IE nacional, se isolar o valor referente a equipamentos de AVAC, obtem-se uma IE de aproximadamente 12%. Se adicionalmente se considerar uma taxa de redução, relativa à execução da manutenção, entre 10 e 20%, Portugal obteria uma IE, relativamente aos consumos energéticos em edificios de serviços, não de 17% mas sim entre 14,6% e 15,8%. Neste trabalho pretende-se comprovar que um plano de actividades de manutenção equilibrado, monitorizado, e gerido de forma eficaz e funcional, é uma ferramenta fundamental no cumprimento de objectivos e metas europeias traçadas, que se reúnem num objectivo comum de preservação do planeta. A adopção deste tipo de medidas contribuirá para a racionalização dos consumos energéticos e para o aumento da vida útil dos equipamentos, bem como para a melhoria do desempenho económico e financeiro das organizações, tal como se poderá ler mais à frente neste trabalho. Será também analisado um caso prático, verificando a eficácia das medidas tomadas durante as intervenções preventivas de manutenção, sendo que para isso será estudado o comportamento de um equipamento, antes e após a realização de tarefas de manutenção preventiva. Tentar-se-á, junto de gestores de edifícios, recolher a opinião que têm sobre a importância da manutenção. Ao longo de toda a pesquisa foi possível consolidar a hipótese formulada inicialmente no que concerne ao contributo da manutenção para a sustentabilidade, quer através da revisão da literatura, quer nos testes efectuados a equipamentos. Foi possível confirmar que um plano de manutenção ajustado, monitorizado e cumprido é uma ferramenta na diminuição dos consumos energéticos, aumento da vida útil de equipamentos e por sua vez na diminuição de emissões de CO2. Verificou-se também que o controlo de poluentes e ventilação adequada dos edifícios são uma ferramenta essencial para a qualidade do ar interior, parâmetros facilmente controlados nas actividades de manutenção. O contributo das opiniões recolhidas entre os gestores de edifícios, para este estudo, foi também bastante importante, uma vez que todos eles reconhecem o papel importante da manutenção, mas nem todos estão sensibilizados para o seu papel na sustentabilidade do planeta. Nesta dissertação é deixado um alerta: o crescimento da população mundial e a consequente utilização de recursos naturais que são finitos, não sendo controlado de uma forma sustentada, pode resultar na destruição de um planeta único. O papel negativo do Homem nas alterações climáticas é inequívoco e é necessário melhorar a sua relação com o Ambiente. Cada ser humano está inserido na sua comunidade e dentro dela tem a sua função, cabe a cada um exercer esta responsabilidade nas suas actividades do dia-a-dia.
Resumo:
Heterogeneous multicore platforms are becoming an interesting alternative for embedded computing systems with limited power supply as they can execute specific tasks in an efficient manner. Nonetheless, one of the main challenges of such platforms consists of optimising the energy consumption in the presence of temporal constraints. This paper addresses the problem of task-to-core allocation onto heterogeneous multicore platforms such that the overall energy consumption of the system is minimised. To this end, we propose a two-phase approach that considers both dynamic and leakage energy consumption: (i) the first phase allocates tasks to the cores such that the dynamic energy consumption is reduced; (ii) the second phase refines the allocation performed in the first phase in order to achieve better sleep states by trading off the dynamic energy consumption with the reduction in leakage energy consumption. This hybrid approach considers core frequency set-points, tasks energy consumption and sleep states of the cores to reduce the energy consumption of the system. Major value has been placed on a realistic power model which increases the practical relevance of the proposed approach. Finally, extensive simulations have been carried out to demonstrate the effectiveness of the proposed algorithm. In the best-case, savings up to 18% of energy are reached over the first fit algorithm, which has shown, in previous works, to perform better than other bin-packing heuristics for the target heterogeneous multicore platform.
Resumo:
Many-core platforms are an emerging technology in the real-time embedded domain. These devices offer various options for power savings, cost reductions and contribute to the overall system flexibility, however, issues such as unpredictability, scalability and analysis pessimism are serious challenges to their integration into the aforementioned area. The focus of this work is on many-core platforms using a limited migrative model (LMM). LMM is an approach based on the fundamental concepts of the multi-kernel paradigm, which is a promising step towards scalable and predictable many-cores. In this work, we formulate the problem of real-time application mapping on a many-core platform using LMM, and propose a three-stage method to solve it. An extended version of the existing analysis is used to assure that derived mappings (i) guarantee the fulfilment of timing constraints posed on worst-case communication delays of individual applications, and (ii) provide an environment to perform load balancing for e.g. energy/thermal management, fault tolerance and/or performance reasons.