24 resultados para CIE coordinates

em Instituto Politécnico do Porto, Portugal


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mestrado em Engenharia Química. Ramo optimização energética na indústria química

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introdução: O controlo postural (CP), intimamente ligado aos limites de estabilidade, é fundamental nas atividades da vida diária e encontra-se comprometido após Acidente Vascular Encefálico (AVE). Objectivo: Descrever as alterações nos limites de estabilidade, na posição ortostática, em utentes com AVE, face à aplicação de um programa de intervenção baseado num processo de raciocínio clínico. Métodos: Estudo de série de casos, de três indivíduos com alterações do CP do tronco e/ou das grandes articulações, decorrentes de AVE, mas capazes de assumir e manter a posição ortostática. Para avaliar os limites de estabilidade foram utilizados a plataforma de pressões Emed (coordenadas do centro de pressão, COPx e COPy) e o MultidirectionalReachTest (MDRT). Foram também aplicadas, a Fugl-Meyer Assessmentof Sensoriomotor Recovery After Stroke (FMA) e a Berg Balance Scale (BBS). Os instrumentos de avaliação foram aplicados antes e após a intervenção (M0 e M1), de 8 semanas, baseada nos princípios do conceito de Bobath. Resultados: Os valores dos testes de alcance no MDRT aumentaram em todos os utentes. Os limites e os deslocamentos médio-lateral (COPx) e, ântero-posterior (COPy) dos valores do CPr aumentaram, entre M0 e M1. No que se refere à FMA e a BBS, verificou-se que todos apresentaram um aumento dos scores. Conclusão: Os utentes modificaram os seus limites de estabilidade no sentido do aumento, assim como, da função motora e do equilíbrio. Deste modo, a intervenção de acordo com os princípios do conceito de Bobath aparenta introduzir os estímulos necessários à reorganização funcional do sistema nervoso central lesado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho surgiu no âmbito da Tese de Mestrado em Engenharia Química - Ramo Optimização Energética na Indústria Química, aliando a necessidade da Empresa Monteiro Ribas – Indústrias, S.A. em resolver alguns problemas relacionados com as estufas da unidade J da fábrica de revestimentos. Outro dos objectivos era propor melhorias de eficiência energética neste sector da empresa. Para tal, foi necessário fazer um levantamento energético de toda a unidade, o que permitiu verificar que as estufas de secagem (Recobrimento 1 e 2) seriam o principal objecto de estudo. O levantamento energético da empresa permitiu conhecer o seu consumo anual de energia de 697,9 tep, o que a classifica, segundo o Decreto-lei nº 71 de 15 de Abril de 2008, como Consumidora Intensiva de Energia (CIE). Além disso, as situações que devem ser alvo de melhoria são: a rede de termofluido, que apresenta válvulas sem isolamento, o sistema de iluminação, que não é o mais eficiente e a rede de distribuição de ar comprimido, que não tem a estrutura mais adequada. Desta forma sugere-se que a rede de distribuição de termofluido passe a ter válvulas isoladas com lã de rocha, o investimento total é de 2.481,56 €, mas a poupança pode ser de 21.145,14 €/ano, com o período de retorno de 0,12 anos. No sistema de iluminação propõe-se a substituição dos balastros normais por electrónicos, o investimento total é de 13.873,74 €, mas a poupança é de 2.620,26 €/ano, com período de retorno de 5 anos. No processo de secagem das linhas de recobrimento mediram-se temperaturas de todos os seus componentes, velocidades de ar o que permitiu conhecer a distribuição do calor fornecido pelo termofluido. No Recobrimento 1, o ar recebe entre 39 a 51% do calor total, a tela recebe cerca de 25% e na terceira estufa este é apenas de 6%. Nesta linha as perdas de calor por radiação oscilam entre 6 e 11% enquanto as perdas por convecção representam cerca de 17 a 44%. Como o calor que a tela recebe é muito inferior ao calor recebido pelo ar no Recobrimento 1, propõe-se uma redução do caudal de ar que entra na estufa, o que conduzirá certamente à poupança de energia térmica. No Recobrimento 2 o calor fornecido ao ar representa cerca de 51 a 77% do calor total e o cedido à tela oscila entre 2 e 3%. As perdas de calor por convecção oscilam entre 12 e 26%, enquanto que as perdas por radiação têm valores entre 4 e 8%. No que diz respeito ao calor necessário para evaporar os solventes este oscila entre os 4 e 13%. Os balanços de massa e energia realizados ao processo de secagem permitiram ainda determinar o rendimento das 3 estufas do Recobrimento 1, com 36, 47 e 24% paras as estufa 1, 2 e 3, respectivamente. No Recobrimento 2 os valores de rendimento foram superiores, tendo-se obtido valores próximos dos 41, 81 e 88%, para as estufas 1, 2 e 3, respectivamente. Face aos resultados obtidos propõem-se a reengenharia do processo introduzindo permutadores compactos para aquecer o ar antes de este entrar nas estufas. O estudo desta alteração foi apenas realizado para a estufa 1 do Recobrimento 1, tendo-se obtido uma área de transferência de calor de 6,80 m2, um investimento associado de 8.867,81 €. e uma poupança de 708,88 €/ano, com um período de retorno do investimento de 13 anos. Outra sugestão consiste na recirculação de parte do ar de saída (5%), que conduz à poupança de 158,02 €/ano. Estes valores, pouco significativos, não estimulam a adopção das referidas sugestões.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Seismic data is difficult to analyze and classical mathematical tools reveal strong limitations in exposing hidden relationships between earthquakes. In this paper, we study earthquake phenomena in the perspective of complex systems. Global seismic data, covering the period from 1962 up to 2011 is analyzed. The events, characterized by their magnitude, geographic location and time of occurrence, are divided into groups, either according to the Flinn-Engdahl (F-E) seismic regions of Earth or using a rectangular grid based in latitude and longitude coordinates. Two methods of analysis are considered and compared in this study. In a first method, the distributions of magnitudes are approximated by Gutenberg-Richter (G-R) distributions and the parameters used to reveal the relationships among regions. In the second method, the mutual information is calculated and adopted as a measure of similarity between regions. In both cases, using clustering analysis, visualization maps are generated, providing an intuitive and useful representation of the complex relationships that are present among seismic data. Such relationships might not be perceived on classical geographic maps. Therefore, the generated charts are a valid alternative to other visualization tools, for understanding the global behavior of earthquakes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A deteção e seguimento de pessoas tem uma grande variedade de aplicações em visão computacional. Embora tenha sido alvo de anos de investigação, continua a ser um tópico em aberto, e ainda hoje, um grande desafio a obtenção de uma abordagem que inclua simultaneamente exibilidade e precisão. O trabalho apresentado nesta dissertação desenvolve um caso de estudo sobre deteção e seguimento automático de faces humanas, em ambiente de sala de reuniões, concretizado num sistema flexível de baixo custo. O sistema proposto é baseado no sistema operativo GNU's Not Unix (GNU) linux, e é dividido em quatro etapas, a aquisição de vídeo, a deteção da face, o tracking e reorientação da posição da câmara. A aquisição consiste na captura de frames de vídeo das três câmaras Internet Protocol (IP) Sony SNC-RZ25P, instaladas na sala, através de uma rede Local Area Network (LAN) também ele já existente. Esta etapa fornece os frames de vídeo para processamento à detecção e tracking. A deteção usa o algoritmo proposto por Viola e Jones, para a identificação de objetos, baseando-se nas suas principais características, que permite efetuar a deteção de qualquer tipo de objeto (neste caso faces humanas) de uma forma genérica e em tempo real. As saídas da deteção, quando é identificado com sucesso uma face, são as coordenadas do posicionamento da face, no frame de vídeo. As coordenadas da face detetada são usadas pelo algoritmo de tracking, para a partir desse ponto seguir a face pelos frames de vídeo subsequentes. A etapa de tracking implementa o algoritmo Continuously Adaptive Mean-SHIFT (Camshift) que baseia o seu funcionamento na pesquisa num mapa de densidade de probabilidade, do seu valor máximo, através de iterações sucessivas. O retorno do algoritmo são as coordenadas da posição e orientação da face. Estas coordenadas permitem orientar o posicionamento da câmara de forma que a face esteja sempre o mais próximo possível do centro do campo de visão da câmara. Os resultados obtidos mostraram que o sistema de tracking proposto é capaz de reconhecer e seguir faces em movimento em sequências de frames de vídeo, mostrando adequabilidade para aplicação de monotorização em tempo real.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The availability of small inexpensive sensor elements enables the employment of large wired or wireless sensor networks for feeding control systems. Unfortunately, the need to transmit a large number of sensor measurements over a network negatively affects the timing parameters of the control loop. This paper presents a solution to this problem by representing sensor measurements with an approximate representation-an interpolation of sensor measurements as a function of space coordinates. A priority-based medium access control (MAC) protocol is used to select the sensor messages with high information content. Thus, the information from a large number of sensor measurements is conveyed within a few messages. This approach greatly reduces the time for obtaining a snapshot of the environment state and therefore supports the real-time requirements of feedback control loops.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We present a distributed algorithm for cyber-physical systems to obtain a snapshot of sensor data. The snapshot is an approximate representation of sensor data; it is an interpolation as a function of space coordinates. The new algorithm exploits a prioritized medium access control (MAC) protocol to efficiently transmit information of the sensor data. It scales to a very large number of sensors and it is able to operate in the presence of sensor faults.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We use the term Cyber-Physical Systems to refer to large-scale distributed sensor systems. Locating the geographic coordinates of objects of interest is an important problemin such systems. We present a new distributed approach to localize objects and events of interest in time complexity independent of number of nodes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A vasta aplicação de antibióticos em sistemas de aquacultura tem conduzido ao aparecimento de espécies microbianas resistentes, devendo ser evitada ou, se possível, minimizada. A minimização implica um controlo muito rigoroso das doses aplicadas, algo que só pode ser realizado se todo o processo analítico for simples, barato e puder ser implementado no local. O presente trabalho descreve para este efeito um sistema sensor constituído por papel quimicamente modificado, cujo procedimento analítico foi semelhante à monitorização de pH através das conhecidas tiras indicadoras de pH universal. O papel foi modificado com base em reacções de monocamadas e assumiu uma coloração típica após contacto com o antibiótico. A intensidade da coloração estava também relacionada com a concentração desse antibiótico. Como prova deste conceito, o sensor proposto foi desenhado tendo em vista a monitorização de oxitetraciclina, um dos antibióticos utilizados neste contexto com elevada frequência. A modificação do papel foi baseada na alteração química das unidades de glucose na matriz sólida por reacção covalente com reagentes apropriados. Foram utilizadas duas estratégias diferentes para este efeito: uma foi baseada em reacções de tipo sol-gel e a outra em reacção de adição nucleófila. Posteriormente, o papel foi modificado com espécies metálicas capazes de mudar de cor na presença da oxitetraciclina. Estas modificações químicas foram avaliadas e optimizadas relativamente a vários parâmetros, no sentido de promover uma variação de cor intensa face à concentração de antibiótico. Procedeu-se ainda ao controlo desta modificação por técnicas de espectroscopia de infravermelho. A variação de cor foi avaliada por comparação visual, mas registada por imagem digital. Os materiais sensores preparados foram ainda caracterizados do ponto de vista do seu desempenho analítico. Incluíram-se aqui a identificação de uma relação linear entre coordenadas de cor e concentração, a atribuição de uma gama de concentrações capaz de fornecer uma resposta previsível e resposta cruzada face a outros antibióticos. Procedeu-se ainda à aplicação dos sensores numa amostra de água ambiental dopada com antibiótico. De uma forma geral, foi possível estabelecer um processo simples de modificação de papel capaz de aferir a presença e a quantidade de tetraciclinas, mais concretamente a oxitetraciclina. O processo aqui estabelecido é promissor, antevendo a concretização de uma metodologia simples, barata e local para a monitorização de anitbióticos em águas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper presents a tool called Petcha that acts as an automated Teaching Assistant in computer programming courses. The ultimate objective of Petcha is to increase the number of programming exercises effectively solved by students. Petcha meets this objective by helping both teachers to author programming exercises and students to solve them. It also coordinates a network of heterogeneous systems, integrating automatic program evaluators, learning management systems, learning object repositories and integrated programming environments. This paper presents the concept and the design of Petcha and sets this tool in a service oriented architecture for managing learning processes based on the automatic evaluation of programming exercises. The paper presents also a case study that validates the use of Petcha and of the proposed architecture.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Earthquakes are associated with negative events, such as large number of casualties, destruction of buildings and infrastructures, or emergence of tsunamis. In this paper, we apply the Multidimensional Scaling (MDS) analysis to earthquake data. MDS is a set of techniques that produce spatial or geometric representations of complex objects, such that, objects perceived to be similar/distinct in some sense are placed nearby/distant on the MDS maps. The interpretation of the charts is based on the resulting clusters since MDS produces a different locus for each similarity measure. In this study, over three million seismic occurrences, covering the period from January 1, 1904 up to March 14, 2012 are analyzed. The events, characterized by their magnitude and spatiotemporal distributions, are divided into groups, either according to the Flinn–Engdahl seismic regions of Earth or using a rectangular grid based in latitude and longitude coordinates. Space-time and Space-frequency correlation indices are proposed to quantify the similarities among events. MDS has the advantage of avoiding sensitivity to the non-uniform spatial distribution of seismic data, resulting from poorly instrumented areas, and is well suited for accessing dynamics of complex systems. MDS maps are proven as an intuitive and useful visual representation of the complex relationships that are present among seismic events, which may not be perceived on traditional geographic maps. Therefore, MDS constitutes a valid alternative to classic visualization tools, for understanding the global behavior of earthquakes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mestrado em Engenharia Informática - Área de Especialização em Sistemas Gráficos e Multimédia

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nos últimos anos, o ISEP em colaboração com a FEUP e outras Universidades, criou um simulador realista de condução chamado DRIS, que tem como objectivo ajudar em trabalhos de investigação de diferentes áreas, como engenharia civil, computação gráfica, psicologia, educação, etc. O resultado deste trabalho pretende ajudar os profissionais a analisarem os dados recolhidos em cada experiência de condução, a fim de permitir o estudo das reações do motorista em diferentes obstáculos durante um percurso. O simulador DRIS é constituído por uma tela branca, onde os ambientes de simulação são projetados; um carro real, onde é feita a experiência de condução e quatro câmaras colocadas no carro. Destas quatro câmaras, três estão dentro do carro e uma fora do carro. Cada câmara está focada estrategicamente, em partes críticas da condução: a estrada, o motorista, os pedais e os controles (mudança de marcha, volante, os comandos do limpador, etc). Cada uma das câmaras grava um vídeo, que é guardado em um computador colocado em uma das salas de controlo, dentro do Laboratório de Análise de Tráfego na FEUP. Além disso, um arquivo de texto é guardado no mesmo computador. Este arquivo de texto contém algumas informações sobre a experiência do motorista, como as coordenadas do carro, a velocidade do carro, o tempo, etc O trabalho desta Tese surge com a finalidade de melhorar a forma de os profissionais analisar e interpretar os dados recolhidos a partir de uma experiência de condução no DRIS. Para o efeito, foi criado um sistema de vídeo-­‐monitorização, que consiste em uma aplicação de vídeo, que permite a visualização de quatro vídeos simultaneamente, e ler um arquivo de texto, que contém todos os dados recolhidos na experiência. Ambos (vídeo e texto) têm de estar sincronizados com o mesmo tempo de forma a permitir ao utilizador, navegar backward e forward com a ajuda de um cursor. Além disso, como qualquer reprodutor de vídeo básico, contém alguns botões para controlar o status do vídeo (Play, Stop, Pause) e permiti que os profissionais analisem com detalhe os dados dos quatro vídeos. Aproveitando os avanços no desenvolvimento de software, a aplicação foi feita em C++ usando a biblioteca Qt, em ambiente de desenvolvimento integrado do Qt Creator, o que tornou mais fácil a implementação. No fim deste relatório (capítulo 4) é anexado um manual do usuário, a fim de explicar e ajudar os profissionais a usar a aplicação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Actualmente, os sistemas de localização são uma área em forte expansão sendo que para espaços exteriores existe uma grande variedade de sistemas de localização enquanto que para espaços interiores as soluções são mais escassas. Este trabalho apresenta o estudo e implementação de um sistema de localização indoor baseado no protocolo ZigBee, utilizando a informação da intensidade de sinal recebido (RSSI - Received Signal Strength Indication). Para a realização deste projecto foi necessário iniciar uma pesquisa mais pormenorizada do protocolo ZigBee. O dispositivo móvel a ser localizado é o módulo XBee Serie 2 que se baseia no mesmo protocolo. Posto isto, foi necessário efectuar um estudo sobre sistemas de localização existentes e analisar as técnicas de localização utilizadas para ambientes interiores. Desta forma utiliza-se neste projecto uma técnica que consiste na análise de fingerprinting, onde é criado um mapa com os valores RSSI para diferentes coordenadas do espaço físico. As intensidades de sinal recebido são relativas a dispositivos XBee instalados em pontos fixos de referência. Para calcular a localização do dispositivo móvel é utilizado o algoritmo K-NN (K- Nearest Neighbors) que permite estimar a posição aproximada do dispositivo móvel. Por último é descrito todo o desenvolvimento do projecto assim como a apresentação e discussão de resultados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A constante evolução da tecnologia permitiu ao ser humano a utilização de dispositivos electrónicos nas suas rotinas diárias. Estas podem ser afetadas quando os utilizadores sofrem de deficiências ou doenças que afetam as suas capacidades motoras. Com o intuito de minimizar este obstáculo surgiram as Interfaces Homem-Computador (HCI). É neste panorama que os sistemas HCI baseados em Eletroculografia (EOG) assumem um papel preponderante na melhoria da qualidade de vida destes indivíduos. A Eletroculografia é o resultado da aquisição do movimento ocular, que pode ser adquirido através de diversos métodos. Os métodos mais convencionais utilizam elétrodos de superfície para aquisição dos sinais elétricos, ou então, utilizam sistemas de gravação de vídeo, que gravam o movimento ocular. O objetivo desta tese é desenvolver um sistema HCI baseado em Eletroculografia, que adquire o sinal elétrico do movimento ocular através de elétrodos de superfície. Para tal desenvolveu-se um circuito eletrónico para a aquisição do sinal de EOG, bem como um algoritmo em Python para análise do mesmo. O circuito foi desenvolvido recorrendo a seis módulos diferentes, cada um deles com uma função específica. Para cada módulo foi necessário desenhar e implementar placas de circuito impresso, que quando conectadas entre si permitem filtrar, amplificar e digitalizar os sinais elétricos, adquiridos através de elétrodos de superfície, originados pelo movimento ocular. O algoritmo criado em Python permite analisar os dados provenientes do circuito e converte-os para coordenadas. Através destas foi possível determinar o sentido e a amplitude do movimento ocular.