983 resultados para Module de cisaillement
Resumo:
Hyperspectral remote sensing exploits the electromagnetic scattering patterns of the different materials at specific wavelengths [2, 3]. Hyperspectral sensors have been developed to sample the scattered portion of the electromagnetic spectrum extending from the visible region through the near-infrared and mid-infrared, in hundreds of narrow contiguous bands [4, 5]. The number and variety of potential civilian and military applications of hyperspectral remote sensing is enormous [6, 7]. Very often, the resolution cell corresponding to a single pixel in an image contains several substances (endmembers) [4]. In this situation, the scattered energy is a mixing of the endmember spectra. A challenging task underlying many hyperspectral imagery applications is then decomposing a mixed pixel into a collection of reflectance spectra, called endmember signatures, and the corresponding abundance fractions [8–10]. Depending on the mixing scales at each pixel, the observed mixture is either linear or nonlinear [11, 12]. Linear mixing model holds approximately when the mixing scale is macroscopic [13] and there is negligible interaction among distinct endmembers [3, 14]. If, however, the mixing scale is microscopic (or intimate mixtures) [15, 16] and the incident solar radiation is scattered by the scene through multiple bounces involving several endmembers [17], the linear model is no longer accurate. Linear spectral unmixing has been intensively researched in the last years [9, 10, 12, 18–21]. It considers that a mixed pixel is a linear combination of endmember signatures weighted by the correspondent abundance fractions. Under this model, and assuming that the number of substances and their reflectance spectra are known, hyperspectral unmixing is a linear problem for which many solutions have been proposed (e.g., maximum likelihood estimation [8], spectral signature matching [22], spectral angle mapper [23], subspace projection methods [24,25], and constrained least squares [26]). In most cases, the number of substances and their reflectances are not known and, then, hyperspectral unmixing falls into the class of blind source separation problems [27]. Independent component analysis (ICA) has recently been proposed as a tool to blindly unmix hyperspectral data [28–31]. ICA is based on the assumption of mutually independent sources (abundance fractions), which is not the case of hyperspectral data, since the sum of abundance fractions is constant, implying statistical dependence among them. This dependence compromises ICA applicability to hyperspectral images as shown in Refs. [21, 32]. In fact, ICA finds the endmember signatures by multiplying the spectral vectors with an unmixing matrix, which minimizes the mutual information among sources. If sources are independent, ICA provides the correct unmixing, since the minimum of the mutual information is obtained only when sources are independent. This is no longer true for dependent abundance fractions. Nevertheless, some endmembers may be approximately unmixed. These aspects are addressed in Ref. [33]. Under the linear mixing model, the observations from a scene are in a simplex whose vertices correspond to the endmembers. Several approaches [34–36] have exploited this geometric feature of hyperspectral mixtures [35]. Minimum volume transform (MVT) algorithm [36] determines the simplex of minimum volume containing the data. The method presented in Ref. [37] is also of MVT type but, by introducing the notion of bundles, it takes into account the endmember variability usually present in hyperspectral mixtures. The MVT type approaches are complex from the computational point of view. Usually, these algorithms find in the first place the convex hull defined by the observed data and then fit a minimum volume simplex to it. For example, the gift wrapping algorithm [38] computes the convex hull of n data points in a d-dimensional space with a computational complexity of O(nbd=2cþ1), where bxc is the highest integer lower or equal than x and n is the number of samples. The complexity of the method presented in Ref. [37] is even higher, since the temperature of the simulated annealing algorithm used shall follow a log( ) law [39] to assure convergence (in probability) to the desired solution. Aiming at a lower computational complexity, some algorithms such as the pixel purity index (PPI) [35] and the N-FINDR [40] still find the minimum volume simplex containing the data cloud, but they assume the presence of at least one pure pixel of each endmember in the data. This is a strong requisite that may not hold in some data sets. In any case, these algorithms find the set of most pure pixels in the data. PPI algorithm uses the minimum noise fraction (MNF) [41] as a preprocessing step to reduce dimensionality and to improve the signal-to-noise ratio (SNR). The algorithm then projects every spectral vector onto skewers (large number of random vectors) [35, 42,43]. The points corresponding to extremes, for each skewer direction, are stored. A cumulative account records the number of times each pixel (i.e., a given spectral vector) is found to be an extreme. The pixels with the highest scores are the purest ones. N-FINDR algorithm [40] is based on the fact that in p spectral dimensions, the p-volume defined by a simplex formed by the purest pixels is larger than any other volume defined by any other combination of pixels. This algorithm finds the set of pixels defining the largest volume by inflating a simplex inside the data. ORA SIS [44, 45] is a hyperspectral framework developed by the U.S. Naval Research Laboratory consisting of several algorithms organized in six modules: exemplar selector, adaptative learner, demixer, knowledge base or spectral library, and spatial postrocessor. The first step consists in flat-fielding the spectra. Next, the exemplar selection module is used to select spectral vectors that best represent the smaller convex cone containing the data. The other pixels are rejected when the spectral angle distance (SAD) is less than a given thresh old. The procedure finds the basis for a subspace of a lower dimension using a modified Gram–Schmidt orthogonalizati on. The selected vectors are then projected onto this subspace and a simplex is found by an MV T pro cess. ORA SIS is oriented to real-time target detection from uncrewed air vehicles using hyperspectral data [46]. In this chapter we develop a new algorithm to unmix linear mixtures of endmember spectra. First, the algorithm determines the number of endmembers and the signal subspace using a newly developed concept [47, 48]. Second, the algorithm extracts the most pure pixels present in the data. Unlike other methods, this algorithm is completely automatic and unsupervised. To estimate the number of endmembers and the signal subspace in hyperspectral linear mixtures, the proposed scheme begins by estimating sign al and noise correlation matrices. The latter is based on multiple regression theory. The signal subspace is then identified by selectin g the set of signal eigenvalue s that best represents the data, in the least-square sense [48,49 ], we note, however, that VCA works with projected and with unprojected data. The extraction of the end members exploits two facts: (1) the endmembers are the vertices of a simplex and (2) the affine transformation of a simplex is also a simplex. As PPI and N-FIND R algorithms, VCA also assumes the presence of pure pixels in the data. The algorithm iteratively projects data on to a direction orthogonal to the subspace spanned by the endmembers already determined. The new end member signature corresponds to the extreme of the projection. The algorithm iterates until all end members are exhausted. VCA performs much better than PPI and better than or comparable to N-FI NDR; yet it has a computational complexity between on e and two orders of magnitude lower than N-FINDR. The chapter is structure d as follows. Section 19.2 describes the fundamentals of the proposed method. Section 19.3 and Section 19.4 evaluate the proposed algorithm using simulated and real data, respectively. Section 19.5 presents some concluding remarks.
Resumo:
A otimização nos sistemas de suporte à decisão atuais assume um carácter fortemente interdisciplinar relacionando-se com a necessidade de integração de diferentes técnicas e paradigmas na resolução de problemas reais complexos, sendo que a computação de soluções ótimas em muitos destes problemas é intratável. Os métodos de pesquisa heurística são conhecidos por permitir obter bons resultados num intervalo temporal aceitável. Muitas vezes, necessitam que a parametrização seja ajustada de forma a permitir obter bons resultados. Neste sentido, as estratégias de aprendizagem podem incrementar o desempenho de um sistema, dotando-o com a capacidade de aprendizagem, por exemplo, qual a técnica de otimização mais adequada para a resolução de uma classe particular de problemas, ou qual a parametrização mais adequada de um dado algoritmo num determinado cenário. Alguns dos métodos de otimização mais usados para a resolução de problemas do mundo real resultaram da adaptação de ideias de várias áreas de investigação, principalmente com inspiração na natureza - Meta-heurísticas. O processo de seleção de uma Meta-heurística para a resolução de um dado problema é em si um problema de otimização. As Híper-heurísticas surgem neste contexto como metodologias eficientes para selecionar ou gerar heurísticas (ou Meta-heurísticas) na resolução de problemas de otimização NP-difícil. Nesta dissertação pretende-se dar uma contribuição para o problema de seleção de Metaheurísticas respetiva parametrização. Neste sentido é descrita a especificação de uma Híperheurística para a seleção de técnicas baseadas na natureza, na resolução do problema de escalonamento de tarefas em sistemas de fabrico, com base em experiência anterior. O módulo de Híper-heurística desenvolvido utiliza um algoritmo de aprendizagem por reforço (QLearning), que permite dotar o sistema da capacidade de seleção automática da Metaheurística a usar no processo de otimização, assim como a respetiva parametrização. Finalmente, procede-se à realização de testes computacionais para avaliar a influência da Híper- Heurística no desempenho do sistema de escalonamento AutoDynAgents. Como conclusão genérica, é possível afirmar que, dos resultados obtidos é possível concluir existir vantagem significativa no desempenho do sistema quando introduzida a Híper-heurística baseada em QLearning.
Resumo:
A utilização de aplicações Web 2.0 no processo ensino/aprendizagem tem vindo a intensificar-se nos últimos tempos, mais por iniciativas individuais de docentes e estudantes do que por estratégia das Instituições de Ensino. Este artigo apresenta um projecto já em curso que consiste na implementação de uma plataforma de criação de ambientes de aprendizagem controlados pelos estudantes, integrando aplicações Web 2.0 e sistemas de gestão de conteúdos. A plataforma permitirá a utilização segura de conteúdos criados em aplicações Web 2.0, no processo de avaliação, possibilitando a sua publicação na infra-estrutura controlada pela Instituição de Ensino Superior, contribuindo assim para a adequação do binómio ensino/aprendizagem ao novo paradigma implicado no processo de Bolonha.
Resumo:
O uso da tecnologia tem crescido nas últimas décadas nas mais diversas áreas, seja na indústria ou no dia-a-dia, e é cada vez mais evidente os benefícios que traz. No desporto não é diferente. Cada dia surgem novos desenvolvimentos objetivando a melhoria do desempenho dos praticantes de atividades físicas, possibilitando atingir resultados nunca antes pensados. Além disto, a utilização da tecnologia no desporto permite a obtenção de dados biomecânicos que podem ser utilizados tanto no treinamento quando na melhoria da qualidade de vida dos atletas auxiliando na prevenção de lesões, por exemplo. Deste modo, o presente projeto se aplica na área do desporto, nomeadamente, na modalidade do surfe, onde a ausência de trabalhos científicos ainda é elevada, aliando a tecnologia eletrônica ao desporto para quantificar informações até então desconhecidas. Três fatores básicos de desempenho foram levantados, sendo eles: equilíbrio, posicionamento dos pés e movimentação da prancha de surfe. Estes fatores levaram ao desenvolvimento de um sistema capaz de medi-los dinamicamente através da medição das forças plantares e da rotação da prancha de surfe. Além da medição dos fatores, o sistema é capaz de armazenar os dados adquiridos localmente através de um cartão de memória, para posterior análise; e também enviá-los através de uma comunicação sem fio, permitindo a visualização do centro de pressões plantares; dos ângulos de rotação da prancha de surfe; e da ativação dos sensores; em tempo real. O dispositivo consiste em um sistema eletrônico embarcado composto por um microcontrolador ATMEGA1280; um circuito de aquisição e condicionamento de sinal analógico; uma central inercial; um módulo de comunicação sem fio RN131; e um conjunto de sensores de força Flexiforce. O firmware embarcado foi desenvolvido em linguagem C. O software Matlab foi utilizado para receção de dados e visualização em tempo real. Os testes realizados demostraram que o funcionamento do sistema atende aos requisitos propostos, fornecendo informação acerca do equilíbrio, através do centro de pressões; do posicionamento dos pés, através da distribuição das pressões plantares; e do movimento da prancha nos eixos pitch e roll, através da central inercial. O erro médio de medição de força verificado foi de -0.0012 ± 0.0064 N, enquanto a mínima distância alcançada na transmissão sem fios foi de 100 m. A potência medida do sistema foi de 330 mW.
Resumo:
Os osciloscópios digitais são utilizados em diversas áreas do conhecimento, assumindo-se no âmbito da engenharia electrónica, como instrumentos indispensáveis. Graças ao advento das Field Programmable Gate Arrays (FPGAs), os instrumentos de medição reconfiguráveis, dadas as suas vantagens, i.e., altos desempenhos, baixos custos e elevada flexibilidade, são cada vez mais uma alternativa aos instrumentos tradicionalmente usados nos laboratórios. Tendo como objectivo a normalização no acesso e no controlo deste tipo de instrumentos, esta tese descreve o projecto e implementação de um osciloscópio digital reconfigurável baseado na norma IEEE 1451.0. Definido de acordo com uma arquitectura baseada nesta norma, as características do osciloscópio são descritas numa estrutura de dados denominada Transducer Electronic Data Sheet (TEDS), e o seu controlo é efectuado utilizando um conjunto de comandos normalizados. O osciloscópio implementa um conjunto de características e funcionalidades básicas, todas verificadas experimentalmente. Destas, destaca-se uma largura de banda de 575kHz, um intervalo de medição de 0.4V a 2.9V, a possibilidade de se definir um conjunto de escalas horizontais, o nível e declive de sincronismo e o modo de acoplamento com o circuito sob análise. Arquitecturalmente, o osciloscópio é constituído por um módulo especificado com a linguagem de descrição de hardware (HDL, Hardware Description Language) Verilog e por uma interface desenvolvida na linguagem de programação Java®. O módulo é embutido numa FPGA, definindo todo o processamento do osciloscópio. A interface permite o seu controlo e a representação do sinal medido. Durante o projecto foi utilizado um conversor Analógico/Digital (A/D) com uma frequência máxima de amostragem de 1.5MHz e 14 bits de resolução que, devido às suas limitações, obrigaram à implementação de um sistema de interpolação multi-estágio com filtros digitais.
Resumo:
No decorrer dos últimos anos tem-se verificado um acréscimo do número de sistemas de videovigilância presentes nos mais diversos ambientes, sendo que estes se encontram cada vez mais sofisticados. Os casinos são um exemplo bastante popular da utilização destes sistemas sofisticados, sendo que vários casinos, hoje em dia, utilizam câmeras para controlo automático das suas operações de jogo. No entanto, atualmente existem vários tipos de jogos em que o controlo automático ainda não se encontra disponível, sendo um destes, o jogo Banca Francesa. A presente dissertação tem como objetivo propor um conjunto de algoritmos idealizados para um sistema de controlo e gestão do jogo de casino Banca Francesa através do auxílio de componentes pertencentes à área da computação visual, tendo em conta os contributos mais relevantes e existentes na área, elaborados por investigadores e entidades relacionadas. No decorrer desta dissertação são apresentados quatro módulos distintos, os quais têm como objetivo auxiliar os casinos a prevenir o acontecimento de fraudes durante o decorrer das suas operações, assim como auxiliar na recolha automática de resultados de jogo. Os quatro módulos apresentados são os seguintes: Dice Sample Generator – Módulo proposto para criação de casos de teste em grande escala; Dice Sample Analyzer – Módulo proposto para a deteção de resultados de jogo; Dice Calibration – Módulo proposto para calibração automática do sistema; Motion Detection – Módulo proposto para a deteção de fraude no jogo. Por fim, para cada um dos módulos, é apresentado um conjunto de testes e análises de modo a verificar se é possível provar o conceito para cada uma das propostas apresentadas.
Resumo:
Tendo por referência a diretiva 2006/95/CE, o trabalho desenvolvido no contexto da disciplina de Dissertação/Projeto/Estágio do Mestrado de Engenharia de Instrumentação e Metrologia, decorreu nas instalações do IEP (Instituto Electrotécnico Português) e teve como objetivo principal o desenvolvimento de um procedimento de avaliação dos efeitos fotobiológicos no olho e pele provocados por fontes de emissão contínua (LED), doravante designado método alternativo ao de referência. Os dois métodos, alternativo e de referência, utilizam respectivamente um foto-radiómetro multicanal e um espetro-radiómetro. O procedimento desenvolvido (método alternativo) de acordo com a norma EN/IEC62471) consiste na aquisição dos valores de irradiância com recurso a um foto-radiómetro e posterior determinação dos valores da radiância, com os quais se faz a avaliação dos efeitos fotobiológicos, para fontes de luz LED (Light Emitting Diode) ou GLS (General Lighting Service). A consulta detalhada da norma EN/IEC62471 e a pesquisa sobre os conceitos, definições, equipamentos e metodologias relacionadas com o tema em causa, constituiu o primeiro passo deste projecto. Com recurso aos dois equipamentos, uma fonte de luz LED (módulo de 12 lâmpadas LED) é avaliada em relação aos perigos (ou riscos) actínico UV e UV-A, ao perigo da luz azul e ainda o perigo térmico na retina e térmico na pele, permitindo fazer uma análise comparativa dos resultados. O método alternativo revelou-se bastante flexível e eficaz, proporcionando bons resultados em termos da irradiância e radiância dos referidos efeitos fotobiológicos. A comparação destes resultados com os valores limites de exposição mencionados na norma EN/IEC6247 permitiu afirmar que a fonte de luz LED avaliada não representa perigo fotobiológico para a saúde humana e classifica-se no grupo de risco “isento”. Uma vez cumpridos os objectivos, entendeu-se que seria uma mais-valia para o trabalho já realizado, estudar outro caso prático. Sendo assim, fez-se a avaliação da radiação de apenas um dos LED´s que constituíam a fonte usada nos ensaios anteriores, com o espetro-radiómetro (método de referência) e com uma distância de 200 mm entre a fonte e o medidor. Neste caso verificaram-se diferenças significativas nas quantidades obtidas quando comparadas com os valores normativos. Concluiu-se que o efeito fotobiológico da luz azul insere-se no grupo de “isento”, sem perigo para a saúde. Contudo, o efeito térmico da retina apresenta um aumento considerável da quantidade de radiância, embora dentro do grupo de risco “isento”. Esta classificação de grupos de risco. Face aos resultados obtidos, pode confirmar-se que as lâmpadas LED apresentam segurança fotobiológica, atendendo aos baixos valores de irradiância e radiância dos efeitos fotobiológicos estudados. Pode ainda afirmar-se que a utilização do foto-radiómetro em alternativa ao espetro-radiómetro se revela mais eficaz do ponto de vista de metodologia prática. Este trabalho demonstra a robustez desses dois equipamentos de avaliação dos efeitos fotobiológicos, e procura estabelecer uma linha de orientação para a prevenção dos efeitos adversos na pele e olhos de todos os seres humanos sujeitos à radiação ótica artificial. Quanto às incertezas de medições, em relação ao processo de medição com foto-radiómetro, a sua estimação não se realizou, devido a não rastreabilidade entre as medições indicadas pelo fabricante, no certificado de calibração e as medidas realizadas por outras entidades. Contudo, é propõe-se a sua realização em trabalhos futuros dentro desse âmbito. As incertezas dos resultados de medições com espetro-radiómetro foram parcialmente estimadas. Atendendo às potencialidades do sistema de medição, propõe-se como trabalho futuro, a aplicação da norma IEC62478, que faz parte da aplicação da norma EN/IEC62471 na avaliação do efeito da luz azul, com base na determinação da temperatura de cor correlacionada (CCT) de lâmpadas ou sistemas de lâmpadas incluindo luminárias. Os valores de irradiância e radiância adquiridos nos processos de avaliação, tanto com foto-radiómetro como espectro-radiómetro foram gravados em ficheiro Excel para um CD e anexados a este trabalho.
Resumo:
This document presents a tool able to automatically gather data provided by real energy markets and to generate scenarios, capture and improve market players’ profiles and strategies by using knowledge discovery processes in databases supported by artificial intelligence techniques, data mining algorithms and machine learning methods. It provides the means for generating scenarios with different dimensions and characteristics, ensuring the representation of real and adapted markets, and their participating entities. The scenarios generator module enhances the MASCEM (Multi-Agent Simulator of Competitive Electricity Markets) simulator, endowing a more effective tool for decision support. The achievements from the implementation of the proposed module enables researchers and electricity markets’ participating entities to analyze data, create real scenarios and make experiments with them. On the other hand, applying knowledge discovery techniques to real data also allows the improvement of MASCEM agents’ profiles and strategies resulting in a better representation of real market players’ behavior. This work aims to improve the comprehension of electricity markets and the interactions among the involved entities through adequate multi-agent simulation.
Resumo:
The use of demand response programs enables the adequate use of resources of small and medium players, bringing high benefits to the smart grid, and increasing its efficiency. One of the difficulties to proceed with this paradigm is the lack of intelligence in the management of small and medium size players. In order to make demand response programs a feasible solution, it is essential that small and medium players have an efficient energy management and a fair optimization mechanism to decrease the consumption without heavy loss of comfort, making it acceptable for the users. This paper addresses the application of real-time pricing in a house that uses an intelligent optimization module involving artificial neural networks.
Resumo:
The energy sector in industrialized countries has been restructured in the last years, with the purpose of decreasing electricity prices through the increase in competition, and facilitating the integration of distributed energy resources. However, the restructuring process increased the complexity in market players' interactions and generated emerging problems and new issues to be addressed. In order to provide players with competitive advantage in the market, decision support tools that facilitate the study and understanding of these markets become extremely useful. In this context arises MASCEM (Multi-Agent Simulator of Competitive Electricity Markets), a multi-agent based simulator that models real electricity markets. To reinforce MASCEM with the capability of recreating the electricity markets reality in the fullest possible extent, it is crucial to make it able to simulate as many market models and player types as possible. This paper presents a new negotiation model implemented in MASCEM based on the negotiation model used in day-ahead market (Elspot) of Nord Pool. This is a key module to study competitive electricity markets, as it presents well defined and distinct characteristics from the already implemented markets, and it is a reference electricity market in Europe (the one with the larger amount of traded power).
Resumo:
A forma como aprendemos depende do contexto tecnológico e sociocultural que nos rodeia, actualmente a inclusão de tecnologia recente na sala de aula não é mais considerada opcional, mas sim uma necessidade pois a forma como o aluno aprende está em constante evolução. Tendo em atenção esta necessidade, foi desenvolvido no decorrer desta tese um simulador em realidade virtual que utiliza comandos/interfaces hápticos. O objectivo deste simulador é ensinar conceitos de física de forma interactiva. Os dispositivos hápticos permitem adicionar o sentido táctil ou de toque à interacção entre homem e máquina, permitindo assim aceder a novas sensações relativas ao seu uso nomeadamente com objectivos de aprendizagem. O simulador desenvolvido designado por “Forces of Physics” aborda três tipos de forças da física: forças de atrito, forças gravitacionais e forças aerodinâmicas. Cada tipo de força corresponde a um módulo do simulador contendo uma simulação individual em que são explicados conceitos específicos dessa força num ambiente visual estimulante e com uma interacção mais realista devido à inclusão do dispositivo háptico Novint Falcon. O simulador foi apresentado a vários utilizadores bem como á comunidade científica através de apresentações em conferências. A avaliação foi realizada com recurso a um questionário com dez perguntas, cinco de sobre aprendizagem e cinco sobre a utilização, tendo sido preenchido por 14 utilizadores. O simulador obteve uma boa recepção por parte dos utilizadores, tendo vários utilizadores expressado as suas opiniões sobre estado actual do simulador, do futuro do mesmo e da respectiva validade para uso na sala de aula.
Resumo:
Este documento apresenta uma análise ao desenvolvimento de uma solução que pretende automatizar o processo de alocação de colaboradores a posições na estrutura organizacional de uma empresa. A solução destina-se a um cliente que utiliza o módulo de recursos humanos de um sistema SAP para gerir toda está informação. O cliente da Konkconsulting para o qual foi desenvolvida a solução possui um modelo organizacional de elevada complexidade, com mais de 180000 colaboradores dispersos em milhares de organizações em todo o mundo. A solução tem como objetivo melhorar a forma como a sua estrutura organizacional está a ser gerida, de modo a reduzir a quantidade de informação desnecessária que é constantemente criada pelos utilizadores sem qualquer critério. Para que tal fosse possível foram implementadas um conjunto de funcionalidades em SAP (mais concretamente no módulo de recursos humanos) com o objetivo de automatizar a alocação e a manutenção de todas as posições dentro da empresa. Estas funcionalidades foram diretamente integradas na aplicação do cliente que é responsável pela gestão de processos na área dos recursos humanos, de modo a garantir que todas as restruturações provocadas por novas contratações, realocações de colaboradores ou suspensões são automaticamente geridas por estas funcionalidades. O documento detalha a forma como as funcionalidades foram desenvolvidas e integradas nos diferentes componentes da aplicação de modo a garantir a alocação automática de colaboradores ao contexto organizacional pretendido. Todo este processo é inovador no que diz respeito a SAP e visa essencialmente uma necessidade do cliente que não se encontra satisfeita por nenhuma solução ou aplicação do sistema. A implementação desta solução permitiu automatizar um processo que era executado manualmente pelos administradores do sistema e que provocava inconsistências de dados frequentes.
Resumo:
A constante evolução da tecnologia permitiu ao ser humano a utilização de dispositivos electrónicos nas suas rotinas diárias. Estas podem ser afetadas quando os utilizadores sofrem de deficiências ou doenças que afetam as suas capacidades motoras. Com o intuito de minimizar este obstáculo surgiram as Interfaces Homem-Computador (HCI). É neste panorama que os sistemas HCI baseados em Eletroculografia (EOG) assumem um papel preponderante na melhoria da qualidade de vida destes indivíduos. A Eletroculografia é o resultado da aquisição do movimento ocular, que pode ser adquirido através de diversos métodos. Os métodos mais convencionais utilizam elétrodos de superfície para aquisição dos sinais elétricos, ou então, utilizam sistemas de gravação de vídeo, que gravam o movimento ocular. O objetivo desta tese é desenvolver um sistema HCI baseado em Eletroculografia, que adquire o sinal elétrico do movimento ocular através de elétrodos de superfície. Para tal desenvolveu-se um circuito eletrónico para a aquisição do sinal de EOG, bem como um algoritmo em Python para análise do mesmo. O circuito foi desenvolvido recorrendo a seis módulos diferentes, cada um deles com uma função específica. Para cada módulo foi necessário desenhar e implementar placas de circuito impresso, que quando conectadas entre si permitem filtrar, amplificar e digitalizar os sinais elétricos, adquiridos através de elétrodos de superfície, originados pelo movimento ocular. O algoritmo criado em Python permite analisar os dados provenientes do circuito e converte-os para coordenadas. Através destas foi possível determinar o sentido e a amplitude do movimento ocular.
Resumo:
The CDIO Initiative is an open innovative educational framework for engineering graduation degrees set in the context of Conceiving – Designing – Implementing – Operating real-world systems and products, which is embraced by a network of worldwide universities, the CDIO collaborators. A CDIO compliant engineering degree programme typically includes a capstone module on the final semester. Its purpose is to expose students to problems of a greater dimension and complexity than those faced throughout the degree programme as well as to put them in contact with the so-called real world, in opposition to the academic world. However, even in the CDIO context, there are barriers that separate engineering capstone students from the real world context of an engineering professional: (i) limited interaction with experts from diverse scientific areas; (ii) reduced cultural and scientific diversity within the teams; and (iii) lack of a project supportive framework to foster the complementary technical and non-technical skills required in an engineering professional. To address these shortcomings, we propose the adoption of the European Project Semester (EPS) framework, a one semester student centred international capstone programme offered by a group of European engineering schools (the EPS Providers) as part of their student exchange programme portfolio. The EPS package is organised around a central module – the EPS project – and a set of complementary supportive modules. Project proposals refer to open multidisciplinary real world problems and supervision becomes coaching. The students are organised in teams, grouping individuals from diverse academic backgrounds and nationalities, and each team is fully responsible for conducting its project. EPS complies with the CDIO directives on Design-Implement experiences and provides an integrated framework for undertaking capstone projects, which is focussed on multicultural and multidisciplinary teamwork, problem-solving, communication, creativity, leadership, entrepreneurship, ethical reasoning and global contextual analysis. As a result, we recommend the adoption of the EPS within CDIO capstone modules for the benefit of engineering students.
Resumo:
RESUMO: Objectivo: O exercício tem sido identificado como um factor de promoção da qualidade de vida em mulheres submetidas a cirurgia por cancro de mama. Mas os níveis de actividade física tendem a reduzir após o diagnóstico de cancro de mama e a manterem-se baixos após fim dos tratamentos. O objectivo deste estudo é verificar se um programa de exercício físico supervisionado, associado a estratégias motivacionais em mulheres submetidas a cirurgia por cancro da mama e que mantêm a intervenção usual praticada, é mais efectivo no aumento dos níveis de actividade física, na redução do índice de massa corporal e na melhoria da qualidade de vida, do que o tratamento usualmente praticado. Metodologia: Trata-se de um estudo piloto experimental, aleatorizado e controlado. Cumpriram os critérios de inclusão no estudo 37 utentes submetidas a cirurgia por cancro de mama no Hospital Fernando Fonseca, Amadora, e submetidos à intervenção usual da fisioterapia. Foram aleatoriamente distribuídas pelos grupos experimental (n=19) e de controlo (n=18). O contacto telefónico foi feito por um elemento externo, cego em relação à distribuição dos sujeitos. Alguns elementos desistiram ou não puderam participar no estudo. O número de sujeitos final foi de 11 para o grupo experimental e de 10 para o grupo de controlo, idênticos na média de idades. Todos os sujeitos mantiveram a intervenção usual da fisioterapia. Os sujeitos do grupo experimental foram ainda submetidos ao programa de exercício e promoção da actividade física. Todo o grupo foi avaliado no início do programa, no final do mesmo (12 semanas) e após 6 meses de follow-up, nos seguintes indicadores: nível de actividade física, pelo International Physical Activity Questionnaire (IPAQ), índice de massa corporal e qualidade de vida, pelos questionários: European Organization for Research and Treatment of Cancer Quality of Life Questionnaire (EORTC QLQ-C30) e Supplementary Questionnaire Breast Cancer Module (QLQ-BR23). Resultados: O programa implementado demonstrou-se efectivo no aumento dos níveis de actividade física (p=0,017) e na qualidade de vida associada ao estado funcional (p=0,016) e ao estado de saúde global auto-percepcionado (p=0,030) no final do programa. Foi ainda possível identificar resultados positivos noutras variáveis estudadas, como por exemplo a fadiga auto-reportada, mas que não se demonstraram estatisticamente significativos, facto que pode atribuir-se à reduzida dimensão da amostra. Conclusões: Apesar de algumas limitações, este estudo é de grande a importância para a comunidade científica preocupada com crescente problemática do cancro de mama. Mais uma vez se demonstra que o exercício físico é uma estratégia importante para a melhoria do estado de saúde de pacientes confrontados com doença. Esta comprovação é de grande interesse para os profissionais de saúde e particularmente para os fisioterapeutas dedicados à promoção da saúde nesta população.---------------------ABSTRACT: Purpose: Exercise has been identified as a quality of life promoting factor, amongst women after breast cancer surgery. But the physical activity levels reduce significantly after a diagnosis of breast cancer and remain low after treatment is completed. The aim of this study is to determine whether a supervised group exercise program allied to motivating strategies in women after breast cancer surgery in conjunction with standard treatment, is more effective in improving physical activity levels, reducing body mass index and promoting quality of life, than standard treatment on its own. Methods: This is a pilot randomized controlled trial. Thirty-seven women, submitted to breast cancer surgery in the Hospital Fernando Fonseca, Amadora, and submitted to standard physiotherapy intervention, completed the inclusion criteria. They were randomly allocated into intervention group (n=19) and control group (n=18). The telephone contact was done by an external element, blind to the subjects’ allocation. Some elements declined or could not participate. The final intervention group was n=11 and the control n=10, similar in age. All subjects maintained the standard physiotherapy intervention. The experimental group was submitted to the exercise and health promotion program. The complete group was evaluated in the beginning of the program, at the final (after 12 weeks) and after 6 months follow-up, using as outcomes: physical activity index with the international Physical Activity Questionnaire (IPAQ), the body mass index and quality of life using the European Organization for Research and Treatment of Cancer Quality of Life Questionnaire (EORTC QLQ-C30) and Supplementary Questionnaire Breast Cancer Module (QLQBR23). Results: The studied program demonstrated to be effective in improving the physical activity index (p=0,017) and quality of live related to physical functioning (p=0,016) and to global health status (p=0,030) at the end of the program. It was possible to find positive results in some other outcomes, such as fatigue, although the differences were not statistically significant. We believe that these results can be attributed to the small sample size. Conclusions: Although we can identify some methodological constrains, this is a very important study for scientific community working on the breast cancer subject. Once more, exercise was identified as an important strategy to improve global heath status in breast cancer patients. This represents an important contribution to the health professionals and mostly for physiotherapists working on health promotion subject.