40 resultados para Chaves Adicionais


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Empreendimentos industriais requerem o acompanhamento completo e preciso de dados de máquinas em tempo real, integrando as atividades do chão de fábrica com a engenharia, suporte e negócios. É reconhecido que sistemas de monitorização são fundamentais para melhorar a qualidade do produto, reduzir os tempos e para a adaptação rápida às mudanças de produção. Os sensores de processos possuem custos altos, não são compactos e são de difícil implementação. Portanto, seria estratégico desenvolver sistemas de monitorização que usufruem ao máximo dos recursos já existentes nas máquinas e ferramentas e que não representem custos adicionais elevados e de difícil implementação. O uso de PLC nas indústrias é crescente. Estes mostram-se como ferramentas potenciais para atender a estas exigências. Os PLC possuem os recursos necessários para a aquisição de informações e controlo das máquinas, facilitando a interação com um sistema SCADA. O objetivo do presente trabalho é pesquisar soluções sobre sistemas de monitorização que possam substituir um sistema instalado antiquado e encontrar uma solução para o controlo de um processo de vazamento. Para tal, foram consideradas duas soluções: uma passaria por desenvolver um sistema de monitorização que controlasse o processo de vazamento, e outra que permitisse ser o PLC a fazer o controlo, adquirindo um HMI apenas para monitorização. Esta última solução revelou-se como a melhor, visto que um PLC tem mais durabilidade em relação a um PC, em termos de atualizações de hardware e software. Assim, foram criadas funções no PLC para fazer o controlo de vazamento e foi adquirido uma consola Beijer, e respetivo software de programação SCADA, para a criação do sistema de monitorização. Os resultados mostram que o PLC é capaz de executar o controlo, não sendo necessário investir em PC que são mais caros, bastando para isso adquirir sistemas SCADA simples e capazes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este documento apresenta uma avaliação sobre o uso dos simuladores fisiológicos como padrão para avaliação metrológica dos esfigmomanómetros automáticos na estimação da pressão sanguínea pelo método não invasivo (PNI). O presente estudo procurou avaliar o enquadramento destes equipamentos com os procedimentos das normas e recomendações usadas para apreciação metrológica dos esfigmomanómetros digitais. No contexto da prática metrológica existente determinou-se a existência de uma oportunidade de melhoria nos processos relacionados. O trabalho procurou obter resposta a diversas questões, relacionando a medição da pressão pelo método não invasivo, com o uso dos simuladores fisiológicos, o contexto em que estes podem ser usados, as formas de simulação, as medições e os resultados, procurando a perspetiva metrológica como enquadramento. As recomendações existentes [1] [2] [3] [4] [5] [6] [7] [8], são muito claras nos procedimentos, validação e nos desvios permitidos para os monitores da tensão arterial (MTA), equipamento que permite a avaliação dos parâmetros fisiológicos do paciente, no entanto, quando se pretende avançar para outro domínio, como o do uso dos simuladores, em particular para a simulação da PNI, não existem recomendações ou normas tão claras, e não existe sobretudo um padrão de referência que imite a natureza dinâmica que caracteriza a pressão sanguínea. O trabalho procurou ainda estabelecer a ligação entre o método clássico de auscultação (o principio de determinação da PS), a técnica digital de medição e os simuladores, para uma melhor compreensão do que é a pressão sanguínea, e como relacionar a problemática da simulação e a de um padrão de referência. Neste trabalho estão ainda presentes abordagens a diversos tópicos, como as validações clínicas, acessórios, ou a metrologia e que influenciam no final os equipamentos e o contexto que se pretende avaliar. Os diversos equipamentos testados procuraram conter amostras diversificadas, quer para os MTA de uso profissional ou doméstico, assim como para os simuladores. A avaliação dos simuladores foi realizada contra um grupo de MTAs. Foi testada a influência na medição, causada pela mudança de acessórios, ou seja, nos resultados, merecendo consideração pela perspetiva metrológica. No resumo dos testes e do estudo sobre este tema, verificou-se que esta tipologia de equipamentos pode contribuir como complemento do processo de calibração típico (estático). Não constitui por si só um método alternativo, mas permitiu estimar possíveis limites de erro e desvio padrão a partir da observação dos resultados práticos, limites esses inferiores aos processos de validação clínica. Atendendo às particularidades, estimou-se como desvio aceitável um erro mais desvio padrão de 5 + 3 mmHg para o processo de simulação. Contudo considera-se ainda importante os testes adicionais em que o simulador permite, ao verificar as medidas de segurança implementadas no equipamento e a condição dos acessórios, que como verificado afetam os resultados. No entanto nem todos os simuladores se mostram adequados a este processo pelo que a qualidade da seleção do equipamento para este fim pode eventualmente reduzir ainda mais os possíveis limites.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The integration of wind power in eletricity generation brings new challenges to unit commitment due to the random nature of wind speed. For this particular optimisation problem, wind uncertainty has been handled in practice by means of conservative stochastic scenario-based optimisation models, or through additional operating reserve settings. However, generation companies may have different attitudes towards operating costs, load curtailment, or waste of wind energy, when considering the risk caused by wind power variability. Therefore, alternative and possibly more adequate approaches should be explored. This work is divided in two main parts. Firstly we survey the main formulations presented in the literature for the integration of wind power in the unit commitment problem (UCP) and present an alternative model for the wind-thermal unit commitment. We make use of the utility theory concepts to develop a multi-criteria stochastic model. The objectives considered are the minimisation of costs, load curtailment and waste of wind energy. Those are represented by individual utility functions and aggregated in a single additive utility function. This last function is adequately linearised leading to a mixed-integer linear program (MILP) model that can be tackled by general-purpose solvers in order to find the most preferred solution. In the second part we discuss the integration of pumped-storage hydro (PSH) units in the UCP with large wind penetration. Those units can provide extra flexibility by using wind energy to pump and store water in the form of potential energy that can be generated after during peak load periods. PSH units are added to the first model, yielding a MILP model with wind-hydro-thermal coordination. Results showed that the proposed methodology is able to reflect the risk profiles of decision makers for both models. By including PSH units, the results are significantly improved.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este estudo tem como objetivo principal conhecer, analisar e refletir sobre as conceções e as práticas de sala de aula, relativamente à importância dos jogos como ferramenta motivadora para a aprendizagem de novos conteúdos. Numa primeira parte deste documento, é feita uma abordagem teórica sobre as questões que levaram à realização deste projeto. Numa segunda parte apresenta-se o estudo empírico que inclui a recolha do testemunho de alunos que realizaram as atividades propostas, bem como as suas expetativas acerca do uso do jogo na sala de aula. Foi utilizado o processo metodológico de investigação – ação. A recolha de dados baseouse em: observação direta, narrativa descritiva de toda a aula baseada nas Narrações Multimodais; questionário de resposta aberta e registos fotográficos, sobre os quais faremos uma análise qualitativa. Nas partes seguintes deste documento apresenta-se a análise de dades, que foi de natureza qualitativa, as conclusões e as limitações.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Em sentido restrito, o tratamento termal provoca um conjunto de efeitos que se obtêm devido à composição específica da Água Minero-Medicinal (AMM) coadjuvado pelos efeitos derivados do ambiente termal e da aplicação das técnicas termais. Os efeitos terapêuticos destas águas resultam, então, das suas qualidades físicas, químicas e biológicas, via de administração e técnicas de aplicação. Apesar das várias aplicações terapêuticas e recomendações ao uso de águas termais na prevenção e/ou tratamento de diversas afeções nas mais diversas áreas, vários estudos confirmaram a capacidade das águas termais para melhorar determinadas afeções cutâneas. O objetivo do presente trabalho consistiu na avaliação dos benefícios dos tratamentos termais nas diferentes dermatoses percecionados por 74 aquistas das estâncias termais do Cró e Carvalhal, que têm indicações terapêuticas dermatológicas aprovadas pela Direção Geral de Saúde, através de um questionário, bem como dos conhecimentos sobre efeitos secundários e contra-indicações. Por outro lado, pretendeu-se verificar se a utilização de produtos cosméticos que contenham água termal é um adjuvante do tratamento termal, e avaliar a percepção individual dos benefícios da utilização destes produtos conjuntamente com os tratamentos termais. Os resultados obtidos permitem concluir que os aquistas que frequentam estas estâncias termais afirmam ter conhecimentos em relação à utilização das águas termais e afirmam sentir benefícios na realização da terapia dermatológica, referindo poucos efeitos secundários aquando da realização dos tratamentos. A utilização de produtos cosméticos contendo água termal ainda não é muito frequente, mas aqueles aquistas que utilizam estes produtos referem sentir melhorias adicionais nas diferentes condições da pele.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introdução: A articulação do ombro é a maior e mais complexa do corpo humano, possui características como cavidade glenóide rasa e pouca coaptação com a cabeça do úmero, o que a possibilita alcançar amplitudes que nenhuma outra articulação é capaz de alcançar, uma amplitude de movimento de 180º na flexão e abdução. Essa grande amplitude gera uma alta instabilidade na articulação do ombro tornando propenso a subluxação e luxação. O fisioterapeuta deverá realizar uma correta avaliação e interpretação dos sintomas e das alterações posturais e biomecânicas do paciente com instabilidade multidirecional do ombro. Objetivo: Realização de uma breve revisão atualizada desta temática, visando a sua avaliação e reabilitação, bem como a aplicação prática dos métodos de avaliação e tratamento num caso concreto, à luz destes conceitos. Métodos: Após a avaliação inicial, foi estabelecido um plano de tratamento com a duração de quatro semanas. A intervenção visou a diminuição da dor, normalização das alterações articulares, reforço da musculatura enfraquecida, promoção da estabilidade do complexo articular do ombro. Como instrumentos de avaliação foram utilizados a END (escala numérica de dor), goniometria, teste muscular, diversos testes adicionais de avaliação. Resultados: Ao final de quatro semanas de tratamento, houve uma melhoria significativa nos ganhos de amplitude articular, força muscular e correto posicionamento da articulação. A dor e instabilidade articular foram controladas, até que deixaram de existir. Conclusão: Uma das patologias mais frequentes em traumatologia é a instabilidade do complexo articular do ombro. Essa instabilidade é explicada pela função integral anormal dos estabilizadores estáticos e dinâmicos. Com um programa de fisioterapia adequado, englobando exercícios de correção postural, mobilização com movimento, reforço muscular, e exercícios de reeducação propriocetiva, a recuperação é possível e eficaz em casos de lesão no ombro por instabilidade multidirecional.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A crescente necessidade de reduzir a dependência energética e a emissão de gases de efeito de estufa levou à adoção de uma série de políticas a nível europeu com vista a aumentar a eficiência energética e nível de controlo de equipamentos, reduzir o consumo e aumentar a percentagem de energia produzida a partir de fontes renováveis. Estas medidas levaram ao desenvolvimento de duas situações críticas para o setor elétrico: a substituição das cargas lineares tradicionais, pouco eficientes, por cargas não-lineares mais eficientes e o aparecimento da produção distribuída de energia a partir de fontes renováveis. Embora apresentem vantagens bem documentadas, ambas as situações podem afetar negativamente a qualidade de energia elétrica na rede de distribuição, principalmente na rede de baixa tensão onde é feita a ligação com a maior parte dos clientes e onde se encontram as cargas não-lineares e a ligação às fontes de energia descentralizadas. Isto significa que a monitorização da qualidade de energia tem, atualmente, uma importância acrescida devido aos custos relacionados com perdas inerentes à falta de qualidade de energia elétrica na rede e à necessidade de verificar que determinados parâmetros relacionados com a qualidade de energia elétrica se encontram dentro dos limites previstos nas normas e nos contratos com clientes de forma a evitar disputas ou reclamações. Neste sentido, a rede de distribuição tem vindo a sofrer alterações a nível das subestações e dos postos de transformação que visam aumentar a visibilidade da qualidade de energia na rede em tempo real. No entanto, estas medidas só permitem monitorizar a qualidade de energia até aos postos de transformação de média para baixa tensão, não revelando o estado real da qualidade de energia nos pontos de entrega ao cliente. A monitorização nestes pontos é feita periodicamente e não em tempo real, ficando aquém do necessário para assegurar a deteção correta de problemas de qualidade de energia no lado do consumidor. De facto, a metodologia de monitorização utilizada atualmente envolve o envio de técnicos ao local onde surgiu uma reclamação ou a um ponto de medição previsto para instalar um analisador de energia que permanece na instalação durante um determinado período de tempo. Este tipo de monitorização à posteriori impossibilita desde logo a deteção do problema de qualidade de energia que levou à reclamação, caso não se trate de um problema contínuo. Na melhor situação, o aparelho poderá detetar uma réplica do evento, mas a larga percentagem anomalias ficam fora deste processo por serem extemporâneas. De facto, para detetar o evento que deu origem ao problema é necessário monitorizar permanentemente a qualidade de energia. No entanto este método de monitorização implica a instalação permanente de equipamentos e não é viável do ponto de vista das empresas de distribuição de energia já que os equipamentos têm custos demasiado elevados e implicam a necessidade de espaços maiores nos pontos de entrega para conter os equipamentos e o contador elétrico. Uma alternativa possível que pode tornar viável a monitorização permanente da qualidade de energia consiste na introdução de uma funcionalidade de monitorização nos contadores de energia de determinados pontos da rede de distribuição. Os contadores são obrigatórios em todas as instalações ligadas à rede, para efeitos de faturação. Tradicionalmente estes contadores são eletromecânicos e recentemente começaram a ser substituídos por contadores inteligentes (smart meters), de natureza eletrónica, que para além de fazer a contagem de energia permitem a recolha de informação sobre outros parâmetros e aplicação de uma serie de funcionalidades pelo operador de rede de distribuição devido às suas capacidades de comunicação. A reutilização deste equipamento com finalidade de analisar a qualidade da energia junto dos pontos de entrega surge assim como uma forma privilegiada dado que se trata essencialmente de explorar algumas das suas características adicionais. Este trabalho tem como objetivo analisar a possibilidade descrita de monitorizar a qualidade de energia elétrica de forma permanente no ponto de entrega ao cliente através da utilização do contador elétrico do mesmo e elaborar um conjunto de requisitos para o contador tendo em conta a normalização aplicável, as características dos equipamentos utilizados atualmente pelo operador de rede e as necessidades do sistema elétrico relativamente à monitorização de qualidade de energia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente relatório é um dos elementos que contribuirão para a concretização da avaliação individual da Unidade Curricular de Dissertação/Projeto/Estágio Profissional, inserida no plano de estudos do Mestrado em Engenharia de Instrumentação e Metrologia e traduz o trabalho realizado na empresa Caetano Aeronautic. O estágio, com a duração de sete meses, permitiu a concretização de finalidades e objetivos que deram suporte ao desenvolvimento das aprendizagens e mobilização dos saberes científicos relativos a domínios e conteúdos curriculares, nomeadamente inseridos nas áreas da Metrologia e Qualidade. A Metrologia é circunscrita como a ciência da medição. A medição é uma operação de extrema relevância em diversas atividades, porque é através da Metrologia que se garante um elevado nível de qualidade pretendido para a conceção, fabricação e utilização de serviços ou produtos. Face à indústria aeronáutica envolver um elevado conjunto de processos, de normas e documentação, foi necessário inicialmente um envolvimento integrado com o Sistema de Gestão da Qualidade da Caetano Aeronautic e com as operações inerentes, nomeadamente de melhoria contínua. Foram desenvolvidas, dentro do possível, propostas de melhoria no processo de inspeção dos componentes aeronáuticos. Dentro das mesmas destacam-se a alteração dos registos de medição, o estudo e posterior proposta de aquisição de ferramentas adicionais para equipamentos de medição. O fluxo de medição tornou-se mais fluído através da concretização da proposta de alteração do layout do laboratório. De salientar o trabalho desenvolvido na área da Engenharia da Qualidade, nomeadamente no tratamento de não conformidades, o que contribuiu para que o processo se encontre atualmente bastante simplificado na empresa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A diversificação do uso dos produtos de cortiça exige uma adaptação constante dos processos produtivos utilizados para a transformação deste produto. Este trabalho tem como principal intuito a idealização e investigação de um novo processo de fabrico adaptado a um tipo muito particular de produto, os aglomerados puros de cortiça. Estes, não recorrem a qualquer tipo de aglutinante para assegurar a sua ligação, apenas as resinas contidas na própria cortiça são utilizadas para esse efeito. Analisando os processos de fabrico atuais, verifica-se que, a conceção de geometrias complexas com aglomerados puros de cortiça, só é possível com recurso à maquinação. Este processo gera desperdício e tem uma série de processos que o antecedem, destacando-se a aglomeração prévia numa forma mais simples (bloco paralelepípedo ou cilindro) e o corte numa pré forma. A ideia de se executar uma peça complexa sem recurso à maquinação é o objetivo primordial deste trabalho. Para isso foi construído um molde, com todos os mecanismos auxiliares necessários, à semelhança do que já se faz noutro tipo de indústrias, nomeadamente, do vidro e do plástico. Esse mesmo molde foi submetido a uma série de ensaios para determinação dos parâmetros de enchimento e moldação, tendo-se chegado a uma formulação que garante características atrativas na peça final. A aglutinação do granulado de cortiça revelou-se bastante dependente de três parâmetros: a temperatura aplicada, a humidade do granulado e o grau de compactação aplicado. A industrialização do processo revelou-se também plausível de execução, sendo apenas necessários alguns melhoramentos. A utilização deste tipo de processo revela-se, portanto, atrativa para grandes séries de peças, conseguindo-se elevada reprodutibilidade das mesmas com apenas um processo, sem necessidade de procedimentos adicionais de acabamento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Face à estagnação da tecnologia uniprocessador registada na passada década, aos principais fabricantes de microprocessadores encontraram na tecnologia multi-core a resposta `as crescentes necessidades de processamento do mercado. Durante anos, os desenvolvedores de software viram as suas aplicações acompanhar os ganhos de performance conferidos por cada nova geração de processadores sequenciais, mas `a medida que a capacidade de processamento escala em função do número de processadores, a computação sequencial tem de ser decomposta em várias partes concorrentes que possam executar em paralelo, para que possam utilizar as unidades de processamento adicionais e completar mais rapidamente. A programação paralela implica um paradigma completamente distinto da programação sequencial. Ao contrário dos computadores sequenciais tipificados no modelo de Von Neumann, a heterogeneidade de arquiteturas paralelas requer modelos de programação paralela que abstraiam os programadores dos detalhes da arquitectura e simplifiquem o desenvolvimento de aplicações concorrentes. Os modelos de programação paralela mais populares incitam os programadores a identificar instruções concorrentes na sua lógica de programação, e a especificá-las sob a forma de tarefas que possam ser atribuídas a processadores distintos para executarem em simultâneo. Estas tarefas são tipicamente lançadas durante a execução, e atribuídas aos processadores pelo motor de execução subjacente. Como os requisitos de processamento costumam ser variáveis, e não são conhecidos a priori, o mapeamento de tarefas para processadores tem de ser determinado dinamicamente, em resposta a alterações imprevisíveis dos requisitos de execução. `A medida que o volume da computação cresce, torna-se cada vez menos viável garantir as suas restrições temporais em plataformas uniprocessador. Enquanto os sistemas de tempo real se começam a adaptar ao paradigma de computação paralela, há uma crescente aposta em integrar execuções de tempo real com aplicações interativas no mesmo hardware, num mundo em que a tecnologia se torna cada vez mais pequena, leve, ubíqua, e portável. Esta integração requer soluções de escalonamento que simultaneamente garantam os requisitos temporais das tarefas de tempo real e mantenham um nível aceitável de QoS para as restantes execuções. Para tal, torna-se imperativo que as aplicações de tempo real paralelizem, de forma a minimizar os seus tempos de resposta e maximizar a utilização dos recursos de processamento. Isto introduz uma nova dimensão ao problema do escalonamento, que tem de responder de forma correcta a novos requisitos de execução imprevisíveis e rapidamente conjeturar o mapeamento de tarefas que melhor beneficie os critérios de performance do sistema. A técnica de escalonamento baseado em servidores permite reservar uma fração da capacidade de processamento para a execução de tarefas de tempo real, e assegurar que os efeitos de latência na sua execução não afectam as reservas estipuladas para outras execuções. No caso de tarefas escalonadas pelo tempo de execução máximo, ou tarefas com tempos de execução variáveis, torna-se provável que a largura de banda estipulada não seja consumida por completo. Para melhorar a utilização do sistema, os algoritmos de partilha de largura de banda (capacity-sharing) doam a capacidade não utilizada para a execução de outras tarefas, mantendo as garantias de isolamento entre servidores. Com eficiência comprovada em termos de espaço, tempo, e comunicação, o mecanismo de work-stealing tem vindo a ganhar popularidade como metodologia para o escalonamento de tarefas com paralelismo dinâmico e irregular. O algoritmo p-CSWS combina escalonamento baseado em servidores com capacity-sharing e work-stealing para cobrir as necessidades de escalonamento dos sistemas abertos de tempo real. Enquanto o escalonamento em servidores permite partilhar os recursos de processamento sem interferências a nível dos atrasos, uma nova política de work-stealing que opera sobre o mecanismo de capacity-sharing aplica uma exploração de paralelismo que melhora os tempos de resposta das aplicações e melhora a utilização do sistema. Esta tese propõe uma implementação do algoritmo p-CSWS para o Linux. Em concordância com a estrutura modular do escalonador do Linux, ´e definida uma nova classe de escalonamento que visa avaliar a aplicabilidade da heurística p-CSWS em circunstâncias reais. Ultrapassados os obstáculos intrínsecos `a programação da kernel do Linux, os extensos testes experimentais provam que o p-CSWS ´e mais do que um conceito teórico atrativo, e que a exploração heurística de paralelismo proposta pelo algoritmo beneficia os tempos de resposta das aplicações de tempo real, bem como a performance e eficiência da plataforma multiprocessador.