54 resultados para positional fault


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mestrado em Engenharia Electrotécnica e de Computadores

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mestrado em Engenharia Electrotécnica e de Computadores

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho estudou-se a implementação de um sistema de vigilância e alerta da qualidade da água de um recurso hídrico, para um possível caso de poluição. Em 25 de Agosto de 2008 foram derramadas 4 toneladas de ácido clorídrico acidentalmente para as águas do rio Febros. Este rio situa-se no concelho de Vila Nova de Gaia e é um pequeno afluente do rio Douro, tendo cerca de 14 km de extensão e tem a particularidade de atravessar o Parque Biológico de Gaia. A falta de uma rápida intervenção e da existência de um plano de ação levou a que parte da fauna e flora fosse destruída. Por este motivo realizou-se este estudo que se baseou na criação de um sistema de vigilância e alerta a ser implementado neste rio. A informação da hidrogeometria do rio e da capacidade de transporte e dispersão de poluentes é indispensável para o bom funcionamento deste sistema. O coeficiente de dispersão longitudinal é um parâmetro muito importante no estudo da qualidade da água. Recorreu-se à utilização da Rodamina WT como marcador, determinando assim a evolução da sua concentração ao longo do tempo e espaço. No cálculo do coeficiente de dispersão foi utilizado o modelo Transient Storage, que demonstrou ser um bom modelo de ajuste aproximando-se dos valores medidos em campo. Para três estações diferentes com distâncias de 290, 390 e 1100 metros do ponto de injeção, obtiveram-se valores de coeficiente de dispersão de 0,18, 0,15 e 0,39 m2/s respetivamente. Os valores do ajuste expressos sob a forma de coeficiente de correlação foram 0,988, 0,998 e 0,986, para a mesma ordem de estações. A constante de rearejamento do rio foi também determinada recorrendo ao método dos marcadores inertes, utilizando o propano como marcador gasoso. A constante determinada próximo de Casal Drijo, entre 2 estações de amostragem a 140 e 290 m do local de injeção, foi de 13,4 dia-1. Com os resultados do coeficiente de dispersão e da constante de rearejamento para além da velocidade e caudal da corrente do rio conseguir-se-á construir o modelo de simulação e previsão de um possível poluente. O sistema de vigilância a implementar sugere-se assim que seja construído por duas partes, uma de análise de evolução da nuvem de poluição e plano de ação outra de monitorização contínua e emissão de alerta. Após uma análise do investimento à implementação deste sistema chegou-se à conclusão que o valor de investimento é de 15.182,00 €.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nos dias de hoje é necessário criar hábitos de vida mais saudáveis que contribuam para o bem-estar da população. Adoptar medidas e práticas de modo regular e disciplinado, pode diminuir o risco do aparecimento de determinadas doenças, como a obesidade, as doenças cardiovasculares, a hipertensão, a diabetes, alguns tipos de cancro e tantas outras. É também importante salientar que, uma alimentação cuidada dá saúde e aumenta a esperança média de vida. Em Portugal, nos últimos anos, os costumes alimentares da população têm vindo a alterar-se significativamente. As refeições caseiras confeccionadas com produtos frescos dão lugar à designada “cultura do fast food”. Em contrapartida, os consumidores são cada vez mais exigentes, estando em permanente alerta no que se refere ao estado dos alimentos. A rotulagem de um produto, para além da função publicitária, tem vindo a ser objecto de legislação específica de forma a fornecer informação simples e clara, correspondente à composição, qualidade, quantidade, validade ou outras características do produto. Estas informações devem ser acessíveis a qualquer tipo de público, com mais ou menos formação e de qualquer estrato social. A qualidade e segurança dos produtos deve basear-se na garantia de que todos os ingredientes, materiais de embalagem e processos produtivos são adequados à produção de produtos seguros, saudáveis e saborosos. A Silliker Portugal, S.A. é uma empresa independente de prestação de serviços para o sector agro-alimentar, líder mundial na prestação de serviços para a melhoria da qualidade e segurança alimentar. A Silliker dedica-se a ajudar as empresas a encontrar soluções para os desafios actuais do sector, oferecendo uma ampla gama de serviços, onde se inclui o serviço de análises microbiológicas, químicas e sensorial; consultadoria em segurança alimentar e desenvolvimento; auditorias; rotulagem e legislação. A actualização permanente de procedimentos na procura de uma melhoria contínua é um dos objectivos da empresa. Para responder a um dos desafios colocados à Silliker, surgiu este trabalho, que consistiu no desenvolvimento de um novo método para determinação de ácidos gordos e da gordura total em diferentes tipos de alimentos e comparação dos resultados, com os obtidos com o método analítico até então adoptado. Se a gordura é um elemento de grande importância na alimentação, devido às suas propriedades nutricionais e organoléticas, recentemente, os investigadores têm focado a sua atenção nos mais diversos ácidos gordos (saturados, monoinsaturados e polinsaturados), em particular nos ácidos gordos essenciais e nos isómeros do ácido linoleico conjugado (CLA), uma mistura de isómeros posicionais e geométricos do ácido linoleico com actividade biológica importante. A técnica usada nas determinações foi a cromatografia gasosa com ionização de chama, GC-FID, tendo as amostras sido previamente tratadas e extraídas de acordo com o tipo de matriz. A metodologia analítica desenvolvida permitiu a correcta avaliação do perfil em ácidos gordos, tendo-se para isso usado uma mistura de 37 ésteres metílicos, em que o ácido gordo C13:0 foi usado como padrão interno. A identificação baseou-se nos tempos de retenção de cada ácido gordo da mistura e para a quantificação usaram-se os factores de resposta. A validação do método implementado foi baseada nos resultados obtidos no estudo de três matrizes relativas a materiais certificados pela BIPEA (Bureau Interprofessionnel des Etudes Analytiques), para o que foram efectuadas doze réplicas de cada matriz. Para cada réplica efectuada foi calculado o teor de matéria gorda, sendo posteriormente o resultado comparado com o emitido pela entidade certificada. Após análise de cada constituinte foi também possível calcular o teor em ácidos gordos saturados, monoinsaturados e polinsaturados. A determinação do perfil em ácidos gordos dos materiais certificados foi aceitável atendendo aos valores obtidos, os quais se encontravam no intervalo de valores admissíveis indicados nos relatórios. A quantificação da matéria gorda no que se refere à matriz de “Paté à Tartinier” apresentou um z-score de 4,3, o que de acordo com as exigências internas da Silliker, não é válido. Para as outras duas matrizes (“Mélange Nutritif” e “Plat cuisiné à base de viande”) os valores de z-score foram, respectivamente, 0,7 e -1,0, o que permite concluir a validade do método. Para que o método possa vir a ser adoptado como método alternativo é necessário um estudo mais alargado relativamente a amostras com diferentes composições. O método foi aplicado na análise de amostras de fiambre, leite gordo, queijo, ovo com ómega 3, amendoim e óleo de girassol, e os resultados foram comparados com os obtidos pelo método até então adoptado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objectivo da Realidade Virtual é simples de entender mas muito difícil de implementar: criar ambientes completamente indiferenciáveis do mundo real com os quais se possa interagir de um modo natural. Desde a criação do Sensorama por Morton Heiling em 1962, passando pela difusão do conceito pelo público geral na década de 90 até os dias de hoje, a evolução da Realidade Virtual tem sido constante. Este conjunto de tecnologias tem estado envolvido por uma certa descrença por parte da sociedade, motivada pelas grandes expectativas que lhe foram atribuídas e pelo estado de desenvolvimento do hardware aquando do seu auge. No entanto, actualmente assiste-se a um ressurgimento do seu interesse no público geral com a introdução de imagem estereoscópica no cinema ou o sucesso dos controladores da consola Nintendo Wii. Hoje em dia as suas aplicações são muito variadas: desde o treino de pilotos de avião ao tratamento de fobias, passando pela industria do entretenimento e a visita virtual de locais com interesse histórico ou turístico. O objectivo desta tese de mestrado é explorar uma área que ainda não tem sido muito abrangida pela Realidade Virtual e que cobre também aspectos educacionais e lúdicos de modo a ser um factor de atracção para os estudantes do ensino secundário: a simulação de instrumentos musicais. Para tal foi implementado um sistema capaz de simular instrumentos musicais de percussão (uma bateria) utilizando imagem estereoscópica, som posicional e interfaces com o utilizador realistas. Os resultados obtidos nas sessões de avaliação efectuadas por alunos recentemente ingressados no ensino superior demonstram que o sistema desenvolvido, bem como a inovação em interfaces do utilizador com os dispositivos electrónicos de uma forma geral, constituem um meio efectivo na sua motivação para a escolha de um curso na área da engenharia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A existência do regime de neutro em subestações de distribuição de energia elétrica é essencial para o bom funcionamento de toda a rede. Existe um vasto leque de opções no que diz respeito aos regimes de neutro. Cada opção tem as suas vantagens e desvantagens, e cabe às empresas do setor elétrico a escolha do regime de neutro mais adequado em função das caraterísticas da rede. A escolha do regime de neutro tem influência direta no desempenho global de toda a rede de média tensão. O principal objetivo desta dissertação é o estudo e a análise das vantagens e inconvenientes dos vários regimes de neutro: neutro isolado, neutro impedante, ligado diretamente à terra, neutro ressonante, analisando as suas vantagens e inconvenientes. É feito um estudo aprofundado do regime de neutro ressonante, também designado por regime de neutro com a Bobine de Petersen. Este trabalho descreve, ainda, de forma sucinta a situação de Portugal relativamente aos regimes de neutro que utiliza e a sua perspetiva futura. Por fim é apresentado um caso de estudo, que diz respeito a uma rede de média tensão (30 kV) alimentada pela subestação de Serpa. Foram estudados os regimes de neutro como a bobine de Petersen, reatância de neutro e neutro isolado. Foi também estudada a influência na ocorrência de um defeito fase-terra e a influência na ocorrência de defeitos francos e resistivos em vários pontos da rede.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho é baseado no simulador de redes PST2200 do Laboratório de Sistemas de Energia (LSE) pois está avariado com vários problemas conhecidos, designadamente: - Defeito de isolamento (disparo de diferencial), - Desregulação da velocidade da máquina primária (motor DC), - Circuito de excitação da máquina síncrona inoperacional, - Inexistência de esquemas elétricos dos circuitos do simulador, - Medidas desreguladas e com canais de medida com circuito impresso queimado. O trabalho executado foi: - O levantamento e desenho de raiz (não existe qualquer manual) dos esquemas dos 10 módulos do simulador, designadamente naqueles com avaria ou com desempenho problemático a fim de que se possa ter uma visão mais pormenorizada dos circuitos e seus problemas, por forma a intervir para os minimizar e resolver, - Foi realizado o diagnóstico de avaria do simulador e foram propostas soluções para os mesmos, - Realizaram-se as intervenções propostas e aprovadas. Nas intervenções realizadas, os princípios orientadores foram: - Aumentar a robustez do equipamento por forma a garantir a sua integridade a utilizações menos apropriados e manobras 'exóticas' próprias de alunos, que pela sua condição, estão em fase de aprendizagem, - Atualizar o equipamento, colocando-o em sintonia com o 'estado da arte', - Como fator de valorização suplementar, foi concebida e aplicada a supervisão remota do funcionamento do simulador através da rede informática. Foram detetados inúmeros erros: - Má ligação do motor de corrente continua ao variador, resultando a falta de controlo da frequência da rede do sistema, - Ligações entre painéis trocadas resultando em avarias diversas das fontes de alimentação, - Cartas eletrónicas de medidas avariadas e que além de se reparar, foram também calibradas. Devido ao mecenato da empresa Schnitt + Sohn participando monetariamente, fez-se o projeto de alteração e respetiva execução de grande parte do simulador aumentando a fiabilidade do mesmo, diminuindo assim a frequência das avarias naturais mais as que acontecem involuntariamente devido a este ser um instrumento didático. Além do trabalho elétrico, foi feito muito trabalho de chaparia para alteração de estrutura e suporte do material com diferenças de posicionamento. Neste trabalho dá-se também alguns exemplos de cálculo e simulação das redes de transporte que se pode efetuar no simulador como estudo e simulação de avarias num sistema produtivo real. Realizou-se a monitorização de dois aparelhos indicadores de parâmetros de energia (Janitza UMG96S) através duma rede com dois protocolos ethernet e profibus utilizando o plc (Omron CJ2M) como valorização do trabalho.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper proposes a new architecture targeting real-time and reliable Distributed Computer-Controlled Systems (DCCS). This architecture provides a structured approach for the integration of soft and/or hard real-time applications with Commercial O -The-Shelf (COTS) components. The Timely Computing Base model is used as the reference model to deal with the heterogeneity of system components with respect to guaranteeing the timeliness of applications. The reliability and availability requirements of hard real-time applications are guaranteed by a software-based fault-tolerance approach.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Building reliable real-time applications on top of commercial off-the-shelf (COTS) components is not a straightforward task. Thus, it is essential to provide a simple and transparent programming model, in order to abstract programmers from the low-level implementation details of distribution and replication. However, the recent trend for incorporating pre-emptive multitasking applications in reliable real-time systems inherently increases its complexity. It is therefore important to provide a transparent programming model, enabling pre-emptive multitasking applications to be implemented without resorting to simultaneously dealing with both system requirements and distribution and replication issues. The distributed embedded architecture using COTS components (DEAR-COTS) architecture has been previously proposed as an architecture to support real-time and reliable distributed computer-controlled systems (DCCS) using COTS components. Within the DEAR-COTS architecture, the hard real-time subsystem provides a framework for the development of reliable real-time applications, which are the core of DCCS applications. This paper presents the proposed framework, and demonstrates how it can be used to support the transparent replication of software components.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A recent trend in distributed computer-controlled systems (DCCS) is to interconnect the distributed computing elements by means of multi-point broadcast networks. Since the network medium is shared between a number of network nodes, access contention exists and must be solved by a medium access control (MAC) protocol. Usually, DCCS impose real-time constraints. In essence, by real-time constraints we mean that traffic must be sent and received within a bounded interval, otherwise a timing fault is said to occur. This motivates the use of communication networks with a MAC protocol that guarantees bounded access and response times to message requests. PROFIBUS is a communication network in which the MAC protocol is based on a simplified version of the timed-token protocol. In this paper we address the cycle time properties of the PROFIBUS MAC protocol, since the knowledge of these properties is of paramount importance for guaranteeing the real-time behaviour of a distributed computer-controlled system which is supported by this type of network.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Fieldbus networks aim at the interconnection of field devices such as sensors, actuators and small controllers. Therefore, they are an effective technology upon which Distributed Computer Controlled Systems (DCCS) can be built. DCCS impose strict timeliness requirements to the communication network. In essence, by timeliness requirements we mean that traffic must be sent and received within a bounded interval, otherwise a timing fault is said to occur. P-NET is a multi-master fieldbus standard based on a virtual token passing scheme. In P-NET each master is allowed to transmit only one message per token visit, which means that in the worst-case the communication response time could be derived considering that the token is fully utilised by all stations. However, such analysis can be proved to be quite pessimistic. In this paper we propose a more sophisticated P-NET timing analysis model, which considers the actual token utilisation by different masters. The major contribution of this model is to provide a less pessimistic, and thus more accurate, analysis for the evaluation of the worst-case communication response time in P-NET fieldbus networks.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this paper, we present some of the fault tolerance management mechanisms being implemented in the Multi-μ architecture, namely its support for replica non-determinism. In this architecture, fault tolerance is achieved by node active replication, with software based replica management and fault tolerance transparent algorithms. A software layer implemented between the application and the real-time kernel, the Fault Tolerance Manager (FTManager), is the responsible for the transparent incorporation of the fault tolerance mechanisms The active replication model can be implemented either imposing replica determinism or keeping replica consistency at critical points, by means of interactive agreement mechanisms. One of the Multi-μ architecture goals is to identify such critical points, relieving the underlying system from performing the interactive agreement in every Ada dispatching point.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Many-core platforms based on Network-on-Chip (NoC [Benini and De Micheli 2002]) present an emerging technology in the real-time embedded domain. Although the idea to group the applications previously executed on separated single-core devices, and accommodate them on an individual many-core chip offers various options for power savings, cost reductions and contributes to the overall system flexibility, its implementation is a non-trivial task. In this paper we address the issue of application mapping onto a NoCbased many-core platform when considering fundamentals and trends of current many-core operating systems, specifically, we elaborate on a limited migrative application model encompassing a message-passing paradigm as a communication primitive. As the main contribution, we formulate the problem of real-time application mapping, and propose a three-stage process to efficiently solve it. Through analysis it is assured that derived solutions guarantee the fulfilment of posed time constraints regarding worst-case communication latencies, and at the same time provide an environment to perform load balancing for e.g. thermal, energy, fault tolerance or performance reasons.We also propose several constraints regarding the topological structure of the application mapping, as well as the inter- and intra-application communication patterns, which efficiently solve the issues of pessimism and/or intractability when performing the analysis.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Classical lock-based concurrency control does not scale with current and foreseen multi-core architectures, opening space for alternative concurrency control mechanisms. The concept of transactions executing concurrently in isolation with an underlying mechanism maintaining a consistent system state was already explored in fault-tolerant and distributed systems, and is currently being explored by transactional memory, this time being used to manage concurrent memory access. In this paper we discuss the use of Software Transactional Memory (STM), and how Ada can provide support for it. Furthermore, we draft a general programming interface to transactional memory, supporting future implementations of STM oriented to real-time systems.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Componentised systems, in particular those with fault confinement through address spaces, are currently emerging as a hot topic in embedded systems research. This paper extends the unified rate-based scheduling framework RBED in several dimensions to fit the requirements of such systems: we have removed the requirement that the deadline of a task is equal to its period. The introduction of inter-process communication reflects the need to communicate. Additionally we also discuss server tasks, budget replenishment and the low level details needed to deal with the physical reality of systems. While a number of these issues have been studied in previous work in isolation, we focus on the problems discovered and lessons learned when integrating solutions. We report on our experiences implementing the proposed mechanisms in a commercial grade OKL4 microkernel as well as an application with soft real-time and best-effort tasks on top of it.