21 resultados para curvilinear coordinates
em Instituto Politécnico do Porto, Portugal
Resumo:
Mestrado em Engenharia Química. Ramo optimização energética na indústria química
Resumo:
Introdução: O controlo postural (CP), intimamente ligado aos limites de estabilidade, é fundamental nas atividades da vida diária e encontra-se comprometido após Acidente Vascular Encefálico (AVE). Objectivo: Descrever as alterações nos limites de estabilidade, na posição ortostática, em utentes com AVE, face à aplicação de um programa de intervenção baseado num processo de raciocínio clínico. Métodos: Estudo de série de casos, de três indivíduos com alterações do CP do tronco e/ou das grandes articulações, decorrentes de AVE, mas capazes de assumir e manter a posição ortostática. Para avaliar os limites de estabilidade foram utilizados a plataforma de pressões Emed (coordenadas do centro de pressão, COPx e COPy) e o MultidirectionalReachTest (MDRT). Foram também aplicadas, a Fugl-Meyer Assessmentof Sensoriomotor Recovery After Stroke (FMA) e a Berg Balance Scale (BBS). Os instrumentos de avaliação foram aplicados antes e após a intervenção (M0 e M1), de 8 semanas, baseada nos princípios do conceito de Bobath. Resultados: Os valores dos testes de alcance no MDRT aumentaram em todos os utentes. Os limites e os deslocamentos médio-lateral (COPx) e, ântero-posterior (COPy) dos valores do CPr aumentaram, entre M0 e M1. No que se refere à FMA e a BBS, verificou-se que todos apresentaram um aumento dos scores. Conclusão: Os utentes modificaram os seus limites de estabilidade no sentido do aumento, assim como, da função motora e do equilíbrio. Deste modo, a intervenção de acordo com os princípios do conceito de Bobath aparenta introduzir os estímulos necessários à reorganização funcional do sistema nervoso central lesado.
Resumo:
Seismic data is difficult to analyze and classical mathematical tools reveal strong limitations in exposing hidden relationships between earthquakes. In this paper, we study earthquake phenomena in the perspective of complex systems. Global seismic data, covering the period from 1962 up to 2011 is analyzed. The events, characterized by their magnitude, geographic location and time of occurrence, are divided into groups, either according to the Flinn-Engdahl (F-E) seismic regions of Earth or using a rectangular grid based in latitude and longitude coordinates. Two methods of analysis are considered and compared in this study. In a first method, the distributions of magnitudes are approximated by Gutenberg-Richter (G-R) distributions and the parameters used to reveal the relationships among regions. In the second method, the mutual information is calculated and adopted as a measure of similarity between regions. In both cases, using clustering analysis, visualization maps are generated, providing an intuitive and useful representation of the complex relationships that are present among seismic data. Such relationships might not be perceived on classical geographic maps. Therefore, the generated charts are a valid alternative to other visualization tools, for understanding the global behavior of earthquakes.
Resumo:
A deteção e seguimento de pessoas tem uma grande variedade de aplicações em visão computacional. Embora tenha sido alvo de anos de investigação, continua a ser um tópico em aberto, e ainda hoje, um grande desafio a obtenção de uma abordagem que inclua simultaneamente exibilidade e precisão. O trabalho apresentado nesta dissertação desenvolve um caso de estudo sobre deteção e seguimento automático de faces humanas, em ambiente de sala de reuniões, concretizado num sistema flexível de baixo custo. O sistema proposto é baseado no sistema operativo GNU's Not Unix (GNU) linux, e é dividido em quatro etapas, a aquisição de vídeo, a deteção da face, o tracking e reorientação da posição da câmara. A aquisição consiste na captura de frames de vídeo das três câmaras Internet Protocol (IP) Sony SNC-RZ25P, instaladas na sala, através de uma rede Local Area Network (LAN) também ele já existente. Esta etapa fornece os frames de vídeo para processamento à detecção e tracking. A deteção usa o algoritmo proposto por Viola e Jones, para a identificação de objetos, baseando-se nas suas principais características, que permite efetuar a deteção de qualquer tipo de objeto (neste caso faces humanas) de uma forma genérica e em tempo real. As saídas da deteção, quando é identificado com sucesso uma face, são as coordenadas do posicionamento da face, no frame de vídeo. As coordenadas da face detetada são usadas pelo algoritmo de tracking, para a partir desse ponto seguir a face pelos frames de vídeo subsequentes. A etapa de tracking implementa o algoritmo Continuously Adaptive Mean-SHIFT (Camshift) que baseia o seu funcionamento na pesquisa num mapa de densidade de probabilidade, do seu valor máximo, através de iterações sucessivas. O retorno do algoritmo são as coordenadas da posição e orientação da face. Estas coordenadas permitem orientar o posicionamento da câmara de forma que a face esteja sempre o mais próximo possível do centro do campo de visão da câmara. Os resultados obtidos mostraram que o sistema de tracking proposto é capaz de reconhecer e seguir faces em movimento em sequências de frames de vídeo, mostrando adequabilidade para aplicação de monotorização em tempo real.
Resumo:
The availability of small inexpensive sensor elements enables the employment of large wired or wireless sensor networks for feeding control systems. Unfortunately, the need to transmit a large number of sensor measurements over a network negatively affects the timing parameters of the control loop. This paper presents a solution to this problem by representing sensor measurements with an approximate representation-an interpolation of sensor measurements as a function of space coordinates. A priority-based medium access control (MAC) protocol is used to select the sensor messages with high information content. Thus, the information from a large number of sensor measurements is conveyed within a few messages. This approach greatly reduces the time for obtaining a snapshot of the environment state and therefore supports the real-time requirements of feedback control loops.
Resumo:
We present a distributed algorithm for cyber-physical systems to obtain a snapshot of sensor data. The snapshot is an approximate representation of sensor data; it is an interpolation as a function of space coordinates. The new algorithm exploits a prioritized medium access control (MAC) protocol to efficiently transmit information of the sensor data. It scales to a very large number of sensors and it is able to operate in the presence of sensor faults.
Resumo:
We use the term Cyber-Physical Systems to refer to large-scale distributed sensor systems. Locating the geographic coordinates of objects of interest is an important problemin such systems. We present a new distributed approach to localize objects and events of interest in time complexity independent of number of nodes.
Resumo:
A vasta aplicação de antibióticos em sistemas de aquacultura tem conduzido ao aparecimento de espécies microbianas resistentes, devendo ser evitada ou, se possível, minimizada. A minimização implica um controlo muito rigoroso das doses aplicadas, algo que só pode ser realizado se todo o processo analítico for simples, barato e puder ser implementado no local. O presente trabalho descreve para este efeito um sistema sensor constituído por papel quimicamente modificado, cujo procedimento analítico foi semelhante à monitorização de pH através das conhecidas tiras indicadoras de pH universal. O papel foi modificado com base em reacções de monocamadas e assumiu uma coloração típica após contacto com o antibiótico. A intensidade da coloração estava também relacionada com a concentração desse antibiótico. Como prova deste conceito, o sensor proposto foi desenhado tendo em vista a monitorização de oxitetraciclina, um dos antibióticos utilizados neste contexto com elevada frequência. A modificação do papel foi baseada na alteração química das unidades de glucose na matriz sólida por reacção covalente com reagentes apropriados. Foram utilizadas duas estratégias diferentes para este efeito: uma foi baseada em reacções de tipo sol-gel e a outra em reacção de adição nucleófila. Posteriormente, o papel foi modificado com espécies metálicas capazes de mudar de cor na presença da oxitetraciclina. Estas modificações químicas foram avaliadas e optimizadas relativamente a vários parâmetros, no sentido de promover uma variação de cor intensa face à concentração de antibiótico. Procedeu-se ainda ao controlo desta modificação por técnicas de espectroscopia de infravermelho. A variação de cor foi avaliada por comparação visual, mas registada por imagem digital. Os materiais sensores preparados foram ainda caracterizados do ponto de vista do seu desempenho analítico. Incluíram-se aqui a identificação de uma relação linear entre coordenadas de cor e concentração, a atribuição de uma gama de concentrações capaz de fornecer uma resposta previsível e resposta cruzada face a outros antibióticos. Procedeu-se ainda à aplicação dos sensores numa amostra de água ambiental dopada com antibiótico. De uma forma geral, foi possível estabelecer um processo simples de modificação de papel capaz de aferir a presença e a quantidade de tetraciclinas, mais concretamente a oxitetraciclina. O processo aqui estabelecido é promissor, antevendo a concretização de uma metodologia simples, barata e local para a monitorização de anitbióticos em águas.
Resumo:
This paper presents a tool called Petcha that acts as an automated Teaching Assistant in computer programming courses. The ultimate objective of Petcha is to increase the number of programming exercises effectively solved by students. Petcha meets this objective by helping both teachers to author programming exercises and students to solve them. It also coordinates a network of heterogeneous systems, integrating automatic program evaluators, learning management systems, learning object repositories and integrated programming environments. This paper presents the concept and the design of Petcha and sets this tool in a service oriented architecture for managing learning processes based on the automatic evaluation of programming exercises. The paper presents also a case study that validates the use of Petcha and of the proposed architecture.
Resumo:
Earthquakes are associated with negative events, such as large number of casualties, destruction of buildings and infrastructures, or emergence of tsunamis. In this paper, we apply the Multidimensional Scaling (MDS) analysis to earthquake data. MDS is a set of techniques that produce spatial or geometric representations of complex objects, such that, objects perceived to be similar/distinct in some sense are placed nearby/distant on the MDS maps. The interpretation of the charts is based on the resulting clusters since MDS produces a different locus for each similarity measure. In this study, over three million seismic occurrences, covering the period from January 1, 1904 up to March 14, 2012 are analyzed. The events, characterized by their magnitude and spatiotemporal distributions, are divided into groups, either according to the Flinn–Engdahl seismic regions of Earth or using a rectangular grid based in latitude and longitude coordinates. Space-time and Space-frequency correlation indices are proposed to quantify the similarities among events. MDS has the advantage of avoiding sensitivity to the non-uniform spatial distribution of seismic data, resulting from poorly instrumented areas, and is well suited for accessing dynamics of complex systems. MDS maps are proven as an intuitive and useful visual representation of the complex relationships that are present among seismic events, which may not be perceived on traditional geographic maps. Therefore, MDS constitutes a valid alternative to classic visualization tools, for understanding the global behavior of earthquakes.
Resumo:
Mestrado em Engenharia Informática - Área de Especialização em Sistemas Gráficos e Multimédia
Resumo:
Nos últimos anos, o ISEP em colaboração com a FEUP e outras Universidades, criou um simulador realista de condução chamado DRIS, que tem como objectivo ajudar em trabalhos de investigação de diferentes áreas, como engenharia civil, computação gráfica, psicologia, educação, etc. O resultado deste trabalho pretende ajudar os profissionais a analisarem os dados recolhidos em cada experiência de condução, a fim de permitir o estudo das reações do motorista em diferentes obstáculos durante um percurso. O simulador DRIS é constituído por uma tela branca, onde os ambientes de simulação são projetados; um carro real, onde é feita a experiência de condução e quatro câmaras colocadas no carro. Destas quatro câmaras, três estão dentro do carro e uma fora do carro. Cada câmara está focada estrategicamente, em partes críticas da condução: a estrada, o motorista, os pedais e os controles (mudança de marcha, volante, os comandos do limpador, etc). Cada uma das câmaras grava um vídeo, que é guardado em um computador colocado em uma das salas de controlo, dentro do Laboratório de Análise de Tráfego na FEUP. Além disso, um arquivo de texto é guardado no mesmo computador. Este arquivo de texto contém algumas informações sobre a experiência do motorista, como as coordenadas do carro, a velocidade do carro, o tempo, etc O trabalho desta Tese surge com a finalidade de melhorar a forma de os profissionais analisar e interpretar os dados recolhidos a partir de uma experiência de condução no DRIS. Para o efeito, foi criado um sistema de vídeo-‐monitorização, que consiste em uma aplicação de vídeo, que permite a visualização de quatro vídeos simultaneamente, e ler um arquivo de texto, que contém todos os dados recolhidos na experiência. Ambos (vídeo e texto) têm de estar sincronizados com o mesmo tempo de forma a permitir ao utilizador, navegar backward e forward com a ajuda de um cursor. Além disso, como qualquer reprodutor de vídeo básico, contém alguns botões para controlar o status do vídeo (Play, Stop, Pause) e permiti que os profissionais analisem com detalhe os dados dos quatro vídeos. Aproveitando os avanços no desenvolvimento de software, a aplicação foi feita em C++ usando a biblioteca Qt, em ambiente de desenvolvimento integrado do Qt Creator, o que tornou mais fácil a implementação. No fim deste relatório (capítulo 4) é anexado um manual do usuário, a fim de explicar e ajudar os profissionais a usar a aplicação.
Resumo:
Actualmente, os sistemas de localização são uma área em forte expansão sendo que para espaços exteriores existe uma grande variedade de sistemas de localização enquanto que para espaços interiores as soluções são mais escassas. Este trabalho apresenta o estudo e implementação de um sistema de localização indoor baseado no protocolo ZigBee, utilizando a informação da intensidade de sinal recebido (RSSI - Received Signal Strength Indication). Para a realização deste projecto foi necessário iniciar uma pesquisa mais pormenorizada do protocolo ZigBee. O dispositivo móvel a ser localizado é o módulo XBee Serie 2 que se baseia no mesmo protocolo. Posto isto, foi necessário efectuar um estudo sobre sistemas de localização existentes e analisar as técnicas de localização utilizadas para ambientes interiores. Desta forma utiliza-se neste projecto uma técnica que consiste na análise de fingerprinting, onde é criado um mapa com os valores RSSI para diferentes coordenadas do espaço físico. As intensidades de sinal recebido são relativas a dispositivos XBee instalados em pontos fixos de referência. Para calcular a localização do dispositivo móvel é utilizado o algoritmo K-NN (K- Nearest Neighbors) que permite estimar a posição aproximada do dispositivo móvel. Por último é descrito todo o desenvolvimento do projecto assim como a apresentação e discussão de resultados.
Resumo:
A constante evolução da tecnologia permitiu ao ser humano a utilização de dispositivos electrónicos nas suas rotinas diárias. Estas podem ser afetadas quando os utilizadores sofrem de deficiências ou doenças que afetam as suas capacidades motoras. Com o intuito de minimizar este obstáculo surgiram as Interfaces Homem-Computador (HCI). É neste panorama que os sistemas HCI baseados em Eletroculografia (EOG) assumem um papel preponderante na melhoria da qualidade de vida destes indivíduos. A Eletroculografia é o resultado da aquisição do movimento ocular, que pode ser adquirido através de diversos métodos. Os métodos mais convencionais utilizam elétrodos de superfície para aquisição dos sinais elétricos, ou então, utilizam sistemas de gravação de vídeo, que gravam o movimento ocular. O objetivo desta tese é desenvolver um sistema HCI baseado em Eletroculografia, que adquire o sinal elétrico do movimento ocular através de elétrodos de superfície. Para tal desenvolveu-se um circuito eletrónico para a aquisição do sinal de EOG, bem como um algoritmo em Python para análise do mesmo. O circuito foi desenvolvido recorrendo a seis módulos diferentes, cada um deles com uma função específica. Para cada módulo foi necessário desenhar e implementar placas de circuito impresso, que quando conectadas entre si permitem filtrar, amplificar e digitalizar os sinais elétricos, adquiridos através de elétrodos de superfície, originados pelo movimento ocular. O algoritmo criado em Python permite analisar os dados provenientes do circuito e converte-os para coordenadas. Através destas foi possível determinar o sentido e a amplitude do movimento ocular.
Resumo:
Para o projeto de qualquer estrutura existente (edifícios, pontes, veículos, máquinas, etc.) é necessário conhecer as condições de carga, geometria e comportamento de todas as suas partes, assim como respeitar as normativas em vigor nos países nos quais a estrutura será aplicada. A primeira parte de qualquer projeto nesta área passa pela fase da análise estrutural, onde são calculadas todas as interações e efeitos de cargas sobre as estruturas físicas e os seus componentes de maneira a verificar a aptidão da estrutura para o seu uso. Inicialmente parte-se de uma estrutura de geometria simplificada, pondo de parte os elementos físicos irrelevantes (elementos de fixação, revestimentos, etc.) de maneira a simplificar o cálculo de estruturas complexas e, em função dos resultados obtidos da análise estrutural, melhorar a estrutura se necessário. A análise por elementos finitos é a ferramenta principal durante esta primeira fase do projeto. E atualmente, devido às exigências do mercado, é imprescindível o suporte computorizado de maneira a agilizar esta fase do projeto. Existe para esta finalidade uma vasta gama de programas que permitem realizar tarefas que passam pelo desenho de estruturas, análise estática de cargas, análise dinâmica e vibrações, visualização do comportamento físico (deformações) em tempo real, que permitem a otimização da estrutura em análise. Porém, estes programas demostram uma certa complexidade durante a introdução dos parâmetros, levando muitas vezes a resultados errados. Assim sendo, é essencial para o projetista ter uma ferramenta fiável e simples de usar que possa ser usada para fins de projeto de estruturas e otimização. Sobre esta base nasce este projeto tese onde se elaborou um programa com interface gráfica no ambiente Matlab® para a análise de estruturas por elementos finitos, com elementos do tipo Barra e Viga, quer em 2D ou 3D. Este programa permite definir a estrutura por meio de coordenadas, introdução de forma rápida e clara, propriedades mecânicas dos elementos, condições fronteira e cargas a aplicar. Como resultados devolve ao utilizador as reações, deformações e distribuição de tensões nos elementos quer em forma tabular quer em representação gráfica sobre a estrutura em análise. Existe ainda a possibilidade de importação de dados e exportação dos resultados em ficheiros XLS e XLSX, de maneira a facilitar a gestão de informação. Foram realizados diferentes testes e análises de estruturas de forma a validar os resultados do programa e a sua integridade. Os resultados foram todos satisfatórios e convergem para os resultados de outros programas, publicados em livros, e para cálculo a mão feitos pelo autor.