519 resultados para Filtros de microfita
Resumo:
As atuais exigências do elevado nível de rendimento, num jogo de futebol, tornam imperativo o recurso a novas tecnologias de observação e análise. Nesta dissertação é apresentada uma aplicação, com o objetivo de recolher todas as informações necessárias do vídeo, para efetuar a análise do modelo de jogo de ambas as equipas, em que a análise não faz parte deste trabalho. Disponibilizando ao treinador toda a informação específica sobre o desempenho da equipa e do modelo de jogo usado. A aplicação foi desenvolvida levando em consideração as rotações e inclinações que poderiam afetar as câmaras aquando da aquisição das imagens (vídeos), e também que na maioria das situações apenas parte do campo estaria visível, assim como poderiam existir ampliações. A aplicação é constituída por cinco grandes passos: (a) Deteção da zona do recinto de jogo, baseada na segmentação pela cor, usando para tal uma restrição ao espaço de cor HSV, remoção de regiões insignificantes exteriores ao recinto de jogo e a correção da zona limite deste pelos seus contornos. A segmentação dos jogadores (b), tendo por base o sub-efeito do passo anterior, a existência de buracos no campo na posição dos jogadores, e seu refinamento pela aplicação de filtros morfológicos. A atribuição do jogador a um número e equipa (c), baseada no espaço delimitado pelo jogador, média da cor em HSV deste e restrições da equipa. O rastreamento do jogador (d), baseado em simples fatores de posicionamento e por fim (e) análise do jogo, baseada no rastreamento do jogador, da relação posicional deste com os restantes jogadores, e sectores da equipa, bem como a sua projeção para um campo “modelo”. Toda a informação do posicionamento dos jogadores no campo “modelo,” está formatada para ser enviado para o Sistema de Informação do projeto Footdata. Complementarmente foi também implementada uma biblioteca de manipulação de vídeo com o intuito de, no futuro, ser integrada com o seguimento dos jogadores e modelos de jogo, de forma a permitir à equipa técnica criar apresentações interativas.
Resumo:
Com o surgimento de novos sistemas de telecomunicações sem fios, que necessitam de maiores potências de emissão e largura de banda disponível, surgem os regulamentos que controlam as emissões rádio. Só assim estas tecnologias podem coexistir em bandas próximas, com o máximo desempenho e com a garantia que os níveis de poluição electromagnética não são ultrapassados. Cada vez mais, regulamentos que limitam a potência da transmissão têm em vista questões de saúde pública e por isso devem ser estritamente respeitados. Para se poder controlar as emissões rádio é necessário um dispositivo que consiga analisar o espectro rádio. Um dos instrumentos fundamentais na metrologia de radiofrequência é o analisador de espectros, que tem como principal função apresentar a potência de porções do espectro em função da frequência. Existem vários tipos de analisadores espectrais, que se baseiam em arquitecturas de recepção distintas. O tipo de analisador define a sua complexidade e o tipo de análises que consegue fazer. Com esta dissertação pretende-se mostrar a implementação de um analisador de espectro portátil, de baixo custo, baseado num receptor heteródino e com uma frequência de operação compreendida entre os 2 e os 3 GHz. Este projecto abrange diversas áreas, desde o hardware de recepção rádio, passando pelo microcontrolador que faz a aquisição de dados e comunicação com o computador, acabando na aplicação que foi desenvolvida em Java para permitir ao utilizador uma interface de utilização simples e funcional. Foi também desenvolvida com sucesso uma antena impressa adequada à banda de frequência referida. Embora tenham existidos problemas simples, um na localização do filtro passa-banda e o outro na resposta do filtro intermédio, os objectivos foram alcançados obtendo-se um analisador de espectro portátil, funcional e de baixo custo, conforme pretendido. O analisador tem um erro máximo na detecção de potência de 2,5 dB e o tempo de varrimento máximo é cerca de 16 segundos com 500 pontos de resolução. Foram realizadas várias medições e uma comparação com um analisador de espectros comercial, para demonstrar o funcionamento e desempenho do analisador desenvolvido, tendo os resultados sido bastante promissores. A funcionalidade deste analisador medir a potência do sinal ao longo do tempo é uma mais-valia face ao analisador comercial utilizado para a comparação.
Resumo:
Este trabalho teve como propósito fazer uma avaliação do desempenho energético e da qualidade do ar no interior das instalações de uma Piscina Municipal Coberta, localizada na zona norte de Portugal, sendo estabelecidos os seguintes objetivos: caracterização geral da piscina, no que respeita aos seus diferentes espaços e equipamentos, cálculo dos consumos térmicos e elétricos bem como o registo das concentrações de elementos poluentes para controlo da qualidade do ar no interior da piscina, tendo como base a legislação atualmente em vigor. A caracterização geral da piscina permitiu verificar algumas inconformidades como a temperatura da água nos tanques de natação que tem valores superiores aos recomendados e a sala de primeiros socorros que não possui acesso direto ao exterior. Acrescente-se que o pavimento nos chuveiros da casa de banho feminina e os valores de pH para água do tanque grande e pequeno não estão sempre dentro da gama de recomendação. O caudal da renovação de ar está a ser operado manualmente e quando está a funcionar a 50% da sua capacidade máxima, que acontece numa parte do dia, apenas consegue renovar 77,5% do caudal recomendado pelo RSECE. Para se obter o valor recomendado é necessário ter pelo menos 7 horas com o caudal a 100% da capacidade máxima. A avaria na UTA2 originou que 40% dos registos diários da humidade relativa interior estivessem fora da gama de valores recomendados e que esta é fortemente dependente da humidade no exterior e pode ser agravada quando as portas dos envidraçados da nave são abertas. Analisando ainda a quantidade de água removida na desumidificação do ar com a água evaporada em condições de Outono-Inverno ou Primavera-Verão, este estudo permitiu concluir que todas as combinações demonstraram a necessidade de desumidificação salvo a combinação Outono-Inverno e UTA2 a funcionar a 100% da sua capacidade máxima. Os isolamentos das tubagens na sala das caldeiras foram observados e comparados com as soluções recomendadas pelas empresas especialistas e verificou-se que alguns estão mal colocados com parcial ou total degradação, promovendo perdas térmicas. No caso das perdas calorificas por evaporação, estas representaram cerca de 67,78% das perdas totais. Como tal, estudou-se a aplicação de uma cobertura sobre o plano de água durante o período de inatividade da piscina (8 horas) e verificou-se que o resultado seria uma poupança de 654,8 kWh/dia, na ausência de evaporação da água, mais 88,00 kWh/dia do período da UTA2 a funcionar a 50% da sua capacidade, perfazendo um total de 742,8 kWh/dia. A aplicação da cobertura permite obter um VAL de valor positivo, uma TIR de 22,77% e sendo este valor superior ao WACC (Weight Average Cost of Capital), o projeto torna-se viável com um Pay-Back de 3,17 anos. Caracterizou-se também o consumo total diário em eletricidade, e verificou-se que as unidades de climatização, as bombas de circulação de água, a iluminação, e outros equipamentos representam, respetivamente, cerca de 67,81, 25,26, 2,68 e 3,91% da energia elétrica total consumida. Por fim, a análise à qualidade do ar no interior da nave em Maio e Setembro identificou que as concentrações de ozono apresentavam valores no limite do aceitável em Maio e superiores ao valor de emissão em Setembro. Os compostos orgânicos voláteis também apresentavam valores em Maio 4,98 vezes superior e em Setembro 6,87 vezes superior aos valores máximos exigidos pelo D.L. nº 79/2006. Houve ainda altas concentrações de radão registadas na casa dos filtros, em Maio com um valor 11,49 vezes superior, no entanto esse valor desceu em Setembro para 1,08 vezes, mesmo assim superior ao exigido pelo D.L. nº 79/2006.
Resumo:
Trabalho de Projeto para obtenção do grau de Mestre em Engenharia de Eletrónica e Telecomunicações
Resumo:
Trabalho Final de Mestrado para obtenção do grau de Mestre em Engenharia Mecânica
Resumo:
Trabalho final de Mestrado para obtenção do grau de Mestre em Engenharia de Electrónica e Telecomunicações
Resumo:
Entre os contributos etiológicos das principais LMEMSLT observam-se distintas perspectivas fisiopatológicas, diversos factores de risco – determinantes na óptica dos diversos investigadores – assim como díspares suportes conceptuais na elaboração dos métodos de identificação e avaliação do risco de LMEMSLT. A frequente insuficiência de informação e até, eventualmente, a presença de elementos cientificamente pouco robustos (ou mesmo hipotéticos) no procedimento de obtenção dos resultados finais (scores) com cada método de avaliação do risco, julga-se determinar a obtenção de distintos resultados no mesmo posto de trabalho e deu origem à principal questão de investigação: será possível identificar qual o(s) método(s) de avaliação do risco de LMEMSLT mais adequado (s) face à presença de factores de risco no local de trabalho? O presente estudo foi efectuado numa empresa da indústria automóvel e analisou a utilização de uma estratégia gradativa de selecção de instrumentos de identificação de factores de risco e de métodos de avaliação integrada do risco de LMEMSLT, no sentido de contribuir para a efectividade do processo de identificação e avaliação do risco destas lesões em meio industrial. No essencial, utilizou-se uma adaptação da estratégia de avaliação do risco de Malchaire (Malchaire, 1999), analisando os dois primeiros passos, os mais frequentes e que se consideram essenciais: a identificação de factores de risco e a avaliação do risco. Utilizaram-se como ponto de partida as classificações do risco em postos de trabalho onde a aplicação do método OCRA – base do projecto de norma Europeu prEN 1005-5 para a estimativa do risco de LMEMSLT – identificou níveis de risco moderados e/ou elevados (score OCRA ≥ 16,5). Assim analisaram-se postos de trabalho (n=71) classificados pelo método OCRA (Occhipinti, 1998) como de risco de LMEMSLT moderado (n=37) e elevado (n=34). Registou-se em vídeo a actividade de trabalho e analisaram-se os principais factores de risco (postura, força, repetitividade e exposição a vibrações). Aplicaram-se diversos instrumentos: (1) de identificação de factores de risco – filtros HSE (HSE, 2002) e OSHA (Silverstein, 1997) – e (2) de análise do risco – métodos RULA (McAtamney; Corlett, 1993), SI (Moore; Garg, 1995) e HAL (Lakto et al., 1997). Dos resultados globais da aplicação dos referidos filtros e métodos é possível destacar que os resultados dos filtros são no essencial semelhantes, enquanto os métodos apresentam discrepâncias mais evidentes: o método OCRA classificou os 71 postos de trabalho como de risco, o método SI classificou 41 postos com esse nível, o método HAL classificou 35 postos como de risco e o método RULA classificou apenas 26 postos de risco (OCRA-RULA rS=-0,126 n.s.). Apesar disso as relações existentes entre os seus resultados apresentam algumas semelhanças (p<0,001): OCRA-SI rSp=0,520 e OCRA-HAL rSp=0,422. Destaque, igualmente, para as divergências entre os postos classificados de risco elevado com os diversos métodos, isto é, por exemplo de entre os 41 postos com scores de risco da aplicação do método SI apenas se encontram12 postos classificados de risco pelo método RULA. Os resultados dos filtros permitiram no geral identificar a presença ou ausência dos principais factores de risco, apesar de se verificarem distintos resultados de validade preditiva particularmente a nível da postura (HSE=0,75; OSHA=0,57) e da aplicação de força (HSE=0,59; OSHA=0,80). Os resultados dos métodos permitem evidenciar ponderações diversas para os factores de risco analisados, apresentando semelhanças em situações de aplicação de força (OCRA=0,80; SI=0,80; HAL=0,78), de dissemelhanças na análise da presença de posturas extremas (OCRA=0,62; SI=0,68; RULA=0,48) e da repetitividade (OCRA=0,66; SI=0,35; RULA=0,43; HAL=0,39) ou, em oposição, não incluindo na sua avaliação do risco determinados factores de risco, como é o caso da exposição a vibrações (SI, RULA e HAL) ou da avaliação das posturas (HAL). Deste modo, conclui-se pela pertinência da utilização de um filtro que permita a identificação dos factores de risco presentes em cada posto de trabalho e por consequência oriente a selecção do método mais indicado ou ainda, em oposição, do método contra-indicado. Este trabalho, como um contributo para uma efectiva identificação e avaliação do risco de LMEMSLT, alerta para a necessidade de elaboração
Resumo:
A água é um recurso natural único, escasso e essencial a todos os seres vivos, o que a torna um bem de extrema importância. Nos dias de hoje, o desperdício deste bem, aliado ao aumento da sua procura, tornou-se um problema devido à decrescente disponibilidade de água doce no nosso planeta. Todas as águas que rejeitamos depois da sua utilização para diversos fins, designadas de águas residuais, necessitam de tratamento antes de serem devolvidas ao meio ambiente. O seu tratamento é realizado numa Estação de Tratamento de Águas Residuais (ETAR) e o processo de tratamento depende das suas características. A ETAR das Termas de S. Vicente, em Penafiel, trabalha no seu limite de capacidade, apresenta uma sobrecarga hidráulica gerada por uma afluência de águas pluviais e o processamento das lamas geradas não permite uma secagem tão completa como seria desejável. Assim, este trabalho teve como objetivo o estudo do funcionamento desta ETAR com a finalidade de propor soluções que o possam otimizar. As soluções propostas para otimizar o funcionamento da ETAR em estudo são: i) a substituição de grades de limpeza manual por grades de limpeza automática de forma a reduzir a necessidade da intervenção do operador ao nível da remoção e condicionamento dos gradados; ii) a construção de um desarenador arejado que além de remover areias de diâmetro superior a 0,2 mm promove também a remoção de gorduras, protegendo desta forma os equipamentos a jusante da abrasão/desgaste prematuros e reduzindo a formação de depósitos nas tubagens; iii) a construção de um tanque de equalização de forma a garantir uma distribuição mais uniforme dos caudais e da carga poluente; iv) a substituição do enchimento do leito percolador por um meio de suporte plástico que permite atingir melhores eficiências de remoção neste tratamento biológico; v) a alteração do agente de desinfeção para radiação ultravioleta, evitando a adição de produtos químicos na água residual e possível formação de subprodutos prejudiciais ao ambiente, como ocorreria no caso da cloragem; e vi) a substituição da desidratação de lamas em leitos de secagem por filtros de banda, que é um processo mais rápido, que ocupa menos espaço e permite atingir elevadas eficiências de remoção de humidade. Para cada uma das sugestões são apresentadas as correspondentes especificações técnicas e dimensionamento. As sugestões de melhoria apresentadas neste trabalho constituem uma alternativa mais económica do que a ampliação da ETAR, que genericamente corresponde à duplicação da linha de tratamento atual. Devido à menor complexidade em termos de construção, estas sugestões podem vir a ser implementadas num futuro próximo, prolongando assim um pouco mais a vida útil da ETAR atual.
Resumo:
O trabalho aqui apresentado é a Dissertação da minha Tese do curso de Mestrado em Engenharia Eletrotécnica e de Computadores do ISEP, realizada em parceria com o INESC TEC. O trabalho consiste no desenvolvimento de um sistema avançado de interação entre homem-robô, usando ferramentas de software livres e de domínio público e hardware pouco dispendioso e facilmente acessível. Pretende-se que o sistema desenvolvido possa ser adotado por pequenas ou micro empresas, daí a restrição monetária. Este tipo de empresas tem, por norma, uma capacidade de investimento pequena, e ficam impossibilitadas de aceder a este tipo de sistemas automatizados se estes forem caros. No entanto, o robô continua a ser um componente fundamental, sendo dispendioso. Os trabalhos realizados pelos sistemas robóticos podem por um lado, ser repetitivos sem necessidade de grandes ajustes; por outro lado, o trabalho a realizar pode ser bastante diverso, sendo necessários bastantes ajustes com (possivelmente) programação do robô. As empresas podem não ter disponível mão-de-obra qualificada para realização da programação do robô. Pretende-se então um sistema de “ensino” que seja simples e rápido. Este trabalho pretende satisfazer as necessidades de um sistema de interação homem-robô intuitivo mesmo para operadores que não estejam familiarizados com a robótica. Para simplificar a transferência de informação da tarefa a desempenhar pelo sistema robótico é usado um sistema de infravermelhos para delinear a operação a desempenhar, neste caso concreto uma operação de soldadura. O operador usa um apontador com marcadores, a posição destes marcadores é detetada usando duas câmaras para permitir o posicionamento tridimensional no espaço. As câmaras possuem filtros infravermelhos para separar o espectro de luz. Para o controlo do sistema e interface com o robô é usado um computador de baixos recursos computacionais e energéticos, e também de baixo custo. O sistema desenvolvido é portanto computacionalmente leve para poder ser executado neste computador.
Resumo:
Esta tese de dissertação tem como principal objetivo a implementação de controladores fracionários utilizando diapositivos analógicos FPAA (Field Programable Analog Array). Embora estes dispositivos já não sejam um tecnologia recente, não tiveram grande aceitação comercial, daí não ter sido grande a sua evolução nesta última década. Mas para a elaboração de alguns circuitos analógicos, nomeadamente filtros, amplificadores e mesmo controladores PID (Proporcional-Integrativo-Derivativo) analógicos torna-se numa ferramenta que pode facilitar o projeto e implementação. Para a realização deste estudo, utilizou-se a placa de desenvolvimento da Anadigm AN231K04-DVLP3 juntamente com o software disponibilizado pela mesma empresa, o AnadigmDesigner2. Para a simulação e observação dos resultados foi utilizada a DAQ (Data Acquisition) Hilink da Zelton juntamente com o software Matlab. De forma a testar a implementação dos controladores fracionários nas FPAA foram realizados alguns circuitos no software e enviados para a FPAA comparando os resultados obtidos na simulação com os visualizados no osciloscópio. Por último foi projetado um controlador PIlDm recorrendo aos métodos de aproximação inteira descritos neste documento implementados na FPAA recorrendo ao uso de filtros de primeira e segunda ordem.
Resumo:
O ensaio de dureza, e mais concretamente o ensaio de micro dureza Vickers, é no universo dos ensaios mecânicos um dos mais utilizados quer seja na indústria, no ensino ou na investigação e desenvolvimento de produto no âmbito das ciências dos materiais. Na grande maioria dos casos, a utilização deste ensaio tem como principal aplicação a caracterização ou controlo da qualidade de fabrico de materiais metálicos. Sendo um ensaio de relativa simplicidade de execução, rapidez e com resultados comparáveis e relacionáveis a outras grandezas físicas das propriedades dos materiais. Contudo, e tratando-se de um método de ensaio cuja intervenção humana é importante, na medição da indentação gerada por penetração mecânica através de um sistema ótico, não deixa de exibir algumas debilidades que daí advêm, como sendo o treino dos técnicos e respetivas acuidades visuais, fenómenos de fadiga visual que afetam os resultados ao longo de um turno de trabalho; ora estes fenómenos afetam a repetibilidade e reprodutibilidade dos resultados obtidos no ensaio. O CINFU possui um micro durómetro Vickers, cuja realização dos ensaios depende de um técnico treinado para a execução do mesmo, apresentando todas as debilidades já mencionadas e que o tornou elegível para o estudo e aplicação de uma solução alternativa. Assim, esta dissertação apresenta o desenvolvimento de uma solução alternativa ao método ótico convencional na medição de micro dureza Vickers. Utilizando programação em LabVIEW da National Instruments, juntamente com as ferramentas de visão computacional (NI Vision), o programa começa por solicitar ao técnico a seleção da câmara para aquisição da imagem digital acoplada ao micro durómetro, seleção do método de ensaio (Força de ensaio); posteriormente o programa efetua o tratamento da imagem (aplicação de filtros para eliminação do ruído de fundo da imagem original), segue-se, por indicação do operador, a zona de interesse (ROI) e por sua vez são identificadas automaticamente os vértices da calote e respetivas distâncias das diagonais geradas concluindo, após aceitação das mesmas, com o respetivo cálculo de micro dureza resultante. Para validação dos resultados foram utilizados blocos-padrão de dureza certificada (CRM), cujos resultados foram satisfatórios, tendo-se obtido um elevado nível de exatidão nas medições efetuadas. Por fim, desenvolveu-se uma folha de cálculo em Excel com a determinação da incerteza associada às medições de micro dureza Vickers. Foram então comparados os resultados nas duas metodologias possíveis, pelo método ótico convencional e pela utilização das ferramentas de visão computacional, tendo-se obtido bons resultados com a solução proposta.
Resumo:
O carcinoma foi a principal causa de morte para cerca de 8,2 milhões de habitantes no ano de 2012 a nível mundial. Deste valor, estima-se que o carcinoma colo retal foi responsável por 694.000 mortes nesse mesmo ano. O tratamento eficaz deste carcinoma carece de uma deteção precoce de determinadas patologias associadas, nomeadamente, à presença de hemorragia ou pólipo na mucosa intestinal. Essa deteção precoce passa pela realização frequente de determinados exames clínicos invasivos, como a endoscopia e a colonoscopia, que poderão ser demasiado invasivos para o Homem para serem realizados regularmente. Assim surgiu a capsula endoscópica (CE) como método de diagnóstico pouco invasivo, confortável, seguro e com a funcionalidade de permitir a visualização de todo o trato gastrointestinal (TGI), uma vez que, com os métodos tradicionais de diagnóstico (endoscopia e colonoscopia) isso não acontece. Técnicas computacionais de processamento e análise de imagem automáticas, tais como filtros de suavização, remoção de ruído, deteção de contorno ou segmentação de zonas de interesse, podem ser utilizadas para facilitar a deteção destas patologias e homogeneizar a resposta entre diferentes clínicos, uma vez que, por cada exame de endoscopia por capsula são recolhidas cerca de 57 600 imagens. As imagens recolhidas a partir da CE passam por uma série de passos de processamento de imagem a m de clarificar a existência ou ausência de patologias no interior do TGI. Essa classificação pretende simplificar e auxiliar o clínico no diagnóstico precoce relativamente às patologias em causa, assim como reduzir o seu cansaço, aumentar a sua performance e aumentar a sua eficiência na análise de dados. Neste contexto e em parceria com a empresa INOVA+, esta tese está integrada no projeto PhotonicPill cofinanciado pelo QREN (Quadro de Referência Estratégico Nacional). Este projeto visa desenvolver um conjunto de módulos baseados em fotónica para incorporar numa CE, a m de possibilitar um diagnóstico mais preciso e atempado de diversas patologias, nomeadamente a presença de pólipos e hemorragias, assim como a possibilidade de terapêutica em locais do trato gastrointestinal de difícil acesso, como é o caso do intestino delgado. Um dos módulos baseados em fotónica assenta na tecnologia narrow band imaging (NBI). A contribuição desta tese no projeto prendeu-se no desenvolvimento de 3 métodos de deteção automática. O primeiro direcionado para a deteção de hemorragia, baseou-se na identificação dos valores mínimos e máximos dos canais de R,G,B para criar um valor de threshold duplo. De seguida, complementa-se o método através de operações morfológicas e operações locais. O segundo método de deteção automática é direcionado para a deteção de pólipo e baseou-se na aplicação da transformada de watershed juntamente com o cálculo de medidas associadas à forma típica de um pólipo. Por último, desenvolveu-se um método de deteção de vascularização na mucosa intestinal recorrendo essencialmente à deteção de valores máximos para cada canal do modelo RGB, definindo um valor de threshold máximo para cada um dos três canais. Uma vez testados os algoritmos e obtendo uma percentagem de especificidade e sensibilidade média superior a 70% em todos os métodos, desenvolveu-se um protótipo de uma interface gráfica para este sistema de apoio à decisão clínica que engloba os três parâmetros em análise: deteção de hemorragia, deteção de pólipo e deteção de vascularização. Esta interface fará toda a gestão do processo, ou seja, fara de forma automática a deteção e classificação das patologias a detetar, lançando uma mensagem de alerta ao clínico a informar se o paciente é ou não portador de alguma das anomalias em análise.
Resumo:
Os sistemas de monitorização de estruturas fornecem diversas vantagens, não só no que diz respeito à durabilidade da obra, ao aumento da segurança e do conhecimento relativamente ao comportamento das estruturas ao longo do tempo, à otimização do aspeto estrutural, bem como aos aspetos económicos do processo de construção e manutenção. A monitorização deve realizar-se durante a fase de construção e/ou de exploração da obra para permitir o registo integral do seu comportamento no meio externo. Deve efetuar-se de forma contínua e automática, executando intervenções de rotina para que se possa detetar precocemente sinais de alterações, respetivamente à segurança, integridade e desempenho funcional. Assim se poderá manter a estrutura dentro de parâmetros aceitáveis de segurança. Assim, na presente dissertação será concebido um demonstrador experimental, para ser estudado em laboratório, no qual será implementado um sistema de monitorização contínuo e automático. Sobre este demonstrador será feita uma análise de diferentes grandezas em medição, tais como: deslocamentos, extensões, temperatura, rotações e acelerações. Com carácter inovador, pretende-se ainda incluir neste modelo em sintonia de medição de coordenadas GNSS com o qual se torna possível medir deslocamentos absolutos. Os resultados experimentais alcançados serão analisados e comparados com modelos numéricos. Conferem-se os resultados experimentais de natureza estática e dinâmica, com os resultados numéricos de dois modelos de elementos finitos: um de barras e outro de casca. Realizaram-se diferentes abordagens tendo em conta as características identificadas por via experimental e calculadas nos modelos numéricos para melhor ajuste e calibração dos modelos numéricos Por fim, recorre-se a algoritmos de processamento e tratamento do respetivo sinal com aplicação de filtros, que revelam melhorar com rigor o sinal, de forma a potenciar as técnicas de fusão multisensor. Pretende-se integrar o sinal GNSS com os demais sensores presentes no sistema de monitorização. As técnicas de fusão multisensor visam melhor o desempenho deste potencial sistema de medição, demonstrando as suas valências no domínio da monitorização estrutural.
Resumo:
This Thesis has the main target to make a research about FPAA/dpASPs devices and technologies applied to control systems. These devices provide easy way to emulate analog circuits that can be reconfigurable by programming tools from manufactures and in case of dpASPs are able to be dynamically reconfigurable on the fly. It is described different kinds of technologies commercially available and also academic projects from researcher groups. These technologies are very recent and are in ramp up development to achieve a level of flexibility and integration to penetrate more easily the market. As occurs with CPLD/FPGAs, the FPAA/dpASPs technologies have the target to increase the productivity, reducing the development time and make easier future hardware reconfigurations reducing the costs. FPAA/dpAsps still have some limitations comparing with the classic analog circuits due to lower working frequencies and emulation of complex circuits that require more components inside the integrated circuit. However, they have great advantages in sensor signal condition, filter circuits and control systems. This thesis focuses practical implementations of these technologies to control system PID controllers. The result of the experiments confirms the efficacy of FPAA/dpASPs on signal condition and control systems.
Resumo:
RESUMO - A frequente insuficiência de informação e até, eventualmente, a presença de elementos cientificamente pouco robustos (ou mesmo hipotéticos) no procedimento de obtenção dos resultados finais (scores) com os diversos métodos de avaliação do risco, julga-se determinar a obtenção de distintos resultados no mesmo posto de trabalho e que interessam analisar. O presente estudo foi efectuado numa empresa da indústria automóvel e pretendeu contribuir para a efectividade do processo de avaliação do risco destas lesões em meio industrial. Utilizaram-se como ponto de partida as classificações de risco em postos de trabalho onde a aplicação do método OCRA — base do projecto de norma Europeu prEN 1005-5 para a estimativa do risco de LMEMSLT (Lesões Musculoesqueléticas do Membro Superior Ligadas ao Trabalho) — identificou níveis de risco moderados e/ou elevados (score OCRA ≥ 16,5). Assim nos postos de trabalho (n = 71) registou-se em vídeo a actividade de trabalho. Analisaram-se os principais factores de risco (postura, força, repetitividade e exposição a vibrações) com uma amostragem de segundo em segundo e aplicaram-se dois métodos: 1) RULA (McAtamney; Corlett, 1993); 2) SI (Moore; Garg, 1995). Dos resultados globais da aplicação dos métodos identificam- se discrepâncias evidentes: o método SI classificou 41 postos de risco elevado e o método RULA classificou apenas 26 postos de risco. Destaque para as divergências entre os postos classificados de risco elevado como, por exemplo: de entre os 41 postos com scores de risco da aplicação do método SI apenas se encontram 12 postos classificados de risco pelo método RULA. Os resultados permitem evidenciar validades preditivas diversas para os factores de risco analisados: 1) situações de aplicação de força (SI = 0,80; RULA = 0,66); 2) presença de posturas extremas (SI = 0,68; RULA = 0,48); 3) repetitividade (SI = 0,35; RULA = 0,43). Conclui-se pela divergência de resultados dos métodos SI e RULA aplicados nos mesmos postos de trabalho que tal situação alerta para a pertinência da utilização de um filtro que permita a identificação dos factores de risco presentes em cada posto de trabalho e que, por consequência, oriente a selecção do método mais indicado ou ainda, em oposição, do método contra-indicado. Este trabalho, como um contributo para uma efectiva identificação e avaliação do risco de LMEMSLT, conduz, no limite, à necessidade de elaboração de uma «grelha» das «grelhas» e de informação mais precisa sobre os métodos e sua aplicação, permitindo, desse modo, uma mais efectiva gestão do risco destas lesões.