927 resultados para Computer User Training
Resumo:
Nos últimos anos, o ISEP em colaboração com a FEUP e outras Universidades, criou um simulador realista de condução chamado DRIS, que tem como objectivo ajudar em trabalhos de investigação de diferentes áreas, como engenharia civil, computação gráfica, psicologia, educação, etc. O resultado deste trabalho pretende ajudar os profissionais a analisarem os dados recolhidos em cada experiência de condução, a fim de permitir o estudo das reações do motorista em diferentes obstáculos durante um percurso. O simulador DRIS é constituído por uma tela branca, onde os ambientes de simulação são projetados; um carro real, onde é feita a experiência de condução e quatro câmaras colocadas no carro. Destas quatro câmaras, três estão dentro do carro e uma fora do carro. Cada câmara está focada estrategicamente, em partes críticas da condução: a estrada, o motorista, os pedais e os controles (mudança de marcha, volante, os comandos do limpador, etc). Cada uma das câmaras grava um vídeo, que é guardado em um computador colocado em uma das salas de controlo, dentro do Laboratório de Análise de Tráfego na FEUP. Além disso, um arquivo de texto é guardado no mesmo computador. Este arquivo de texto contém algumas informações sobre a experiência do motorista, como as coordenadas do carro, a velocidade do carro, o tempo, etc O trabalho desta Tese surge com a finalidade de melhorar a forma de os profissionais analisar e interpretar os dados recolhidos a partir de uma experiência de condução no DRIS. Para o efeito, foi criado um sistema de vídeo-‐monitorização, que consiste em uma aplicação de vídeo, que permite a visualização de quatro vídeos simultaneamente, e ler um arquivo de texto, que contém todos os dados recolhidos na experiência. Ambos (vídeo e texto) têm de estar sincronizados com o mesmo tempo de forma a permitir ao utilizador, navegar backward e forward com a ajuda de um cursor. Além disso, como qualquer reprodutor de vídeo básico, contém alguns botões para controlar o status do vídeo (Play, Stop, Pause) e permiti que os profissionais analisem com detalhe os dados dos quatro vídeos. Aproveitando os avanços no desenvolvimento de software, a aplicação foi feita em C++ usando a biblioteca Qt, em ambiente de desenvolvimento integrado do Qt Creator, o que tornou mais fácil a implementação. No fim deste relatório (capítulo 4) é anexado um manual do usuário, a fim de explicar e ajudar os profissionais a usar a aplicação.
Resumo:
A composição musical é um tema de muito interesse para a computação evolucionária dentro da área da inteligência artificial. É uma área que tem sofrido vários desenvolvimentos ao longo dos últimos anos pois o interesse em que hajam computadores que façam obras musicais é deveras aliciante. Este trabalho tem por objectivo realizar mais um passo nesse sentido. Assim, foi desenvolvida uma aplicação informática que realiza composições musicais de dois géneros distintos: Músicas Infantis e Músicas Blues. A aplicação foi implementada com recurso aos Algoritmos Genéticos, que são os algoritmos evolucionários mais populares da área da computação evolucionária. O trabalho foi estruturado em duas fases de desenvolvimento. Na primeira fase, realizou-se um levantamento estatístico sobre as características específicas de cada um dos géneros musicais. Analisaram-se quinze músicas de cada género musical, com o intuito de se chegar a uma proporção do uso que cada nota tem em cada um dos casos. Na segunda fase, desenvolveu-se o software que compõe as músicas com implementação de um algoritmo genético. Além disso, foi também desenvolvida uma interface gráfica que permite ao utilizador a escolha do género musical que pretende compor. O algoritmo genético começa por gerar uma população inicial de potenciais soluções de acordo com a escolha do utilizador, realizando, de seguida, o ciclo que caracteriza o algoritmo genético. A população inicial é constituída por soluções que seguem as regras que foram implementadas de acordo com os dados recolhidos ao longo da primeira fase. Foi também implementada uma interface de avaliação, através da qual, o utilizador pode ouvir cada uma das músicas para posterior avaliação em termos de fitness. O estado de evolução do algoritmo é apresentado, numa segunda interface, a qual facilita a clareza e justiça na avaliação ao longo de todo o processo. Esta última apresenta informação sobre a média das fitness da geração anterior e actual, sendo assim possível ter uma noção da evolução do algoritmo, no sentido de se obterem resultados satisfatórios no que diz respeito às composições musicais.
Resumo:
Thesis submitted to Faculdade de Ciências e Tecnologia of the Universidade Nova de Lisboa, in partial fulfillment of the requirements for the degree of Master in Computer Science
Resumo:
A satisfação das necessidades energéticas mundiais, cada vez mais exigentes, bem como a necessidade urgente de procurar caminhos que permitam usufruir de energia, da forma menos poluente possível, levam à necessidade de serem explorados caminhos que permitam cumprir estes pressupostos. A escolha da utilização das energias renováveis na produção de energia, torna-se cada vez mais interessante, quer do ponto de vista ambiental quer económico. O fundamento da lógica difusa está associado à recolha de informações vagas, que são no fundo uma linguagem falada por seres humanos, possibilitando a passagem deste tipo de linguagem para formato numérico, permitindo assim uma manipulação computacional. Elementos climáticos como o sol e o vento, podem ser descritos em forma de variáveis linguísticas, como é o caso de vento forte, temperatura baixa, irradiação fraca, etc. Isto faz com que a aplicação de um controlo a partir destes fenómenos, justifique ser realizado com recurso a sistemas de inferência difusa. Para a realização do trabalho proposto, foram consumados estudos relativos às energias renováveis, com particular enfoque na solar e na eólica. Também foi realizado um estudo dos conceitos pertencentes à lógica difusa e a sistemas de inferência difusa com o objetivo de perceber os diversos parâmetros constituintes desta matéria. Foi realizado o estudo e desenvolvimento de um sistema de aquisição de dados, bem como do controlador difuso que é o busílis do trabalho descrito neste relatório. Para tal, o trabalho foi efetuado com o recurso ao software MATLAB, a partir do qual foram desenvolvidas aplicações que possibilitaram a obtenção de dados climáticos, com vista à sua utilização na toolbox Fuzzy Logic a qual foi utilizada para o desenvolvimento de todo o algoritmo de controlo. Com a possibilidade de aquisição de dados concluída e das variáveis que iriam ser necessárias definidas, foi implementado o controlador difuso que foi sendo sintonizado ao longo do trabalho por forma a garantir os melhores resultados possíveis. Com o recurso à ferramenta Guide, também do MATLAB, foi criada a interface do sistema com o utilizador, sendo possível a averiguação da energia a ser produzida, bem como das contribuições de cada uma das fontes de energia renováveis para a obtenção dessa mesma energia. Por último, foi feita uma análise de resultados através da comparação entre os valores reais esperados e os valores obtidos pelo controlador difuso, bem como assinaladas conclusões e possibilidades de desenvolvimentos futuros deste trabalho.
Resumo:
Trabalho apresentado no âmbito do Mestrado em Engenharia Informática, como requisito parcial Para obtenção do grau de Mestre em Engenharia Informática
Resumo:
Esta dissertação apresenta o trabalho realizado no âmbito da unidade curricular de Tese/Dissertação (TEDI), do 2º ano, do Mestrado em Engenharia Eletrotécnica e de Computadores no ramo de Automação e Sistemas. O principal objetivo desta dissertação consiste no desenvolvimento de um sistema que permita efetuar a deteção de um determinado número de anomalias num sinal eletrocardiográfico. O coração é um dos órgãos mais importantes do corpo humano. É ele que recebe e bombeia o sangue pelo organismo. Isto é, recebe sangue pobre em oxigénio, encaminha-o para os pulmões onde será enriquecido em oxigénio. O sangue enriquecido em oxigénio é então encaminhado novamente para o coração que será enviado para todas as partes do corpo humano. O eletrocardiograma desempenha um papel fundamental de modo a diagnosticar eventuais anomalias no correto funcionamento do coração. Estas anomalias podem dever-se a diversos fatores como tabaco, colesterol, pressão sanguínea alta ou diabetes entre outros. As anomalias associadas ao ritmo cardíaco são denominadas de arritmias. As arritmias são fundamentalmente originadas pela alteração da frequência ou do ritmo cardíaco. Utilizando a lógica difusa, pretendeu-se desenvolver um sistema que fizesse a identificação de um determinado número de tipos de batimentos entre os quais: o bloqueio do ramo esquerdo (LBBB), bloqueio do ramo direito (RBBB), contração prematura ventricular (VPC) e contração prematura auricular (APC). Todos os desenvolvimentos efetuados, a nível de programação, são neste documento relatados de forma a constituírem um possível guia para a utilização deste tipo de sistemas. Mais ainda, descrevem-se nele toda a pesquisa efetuada e as alternativas de desenvolvimento selecionadas. O Sistema de Deteção de Arritmias (SDA) desenvolvido mostrou-se eficaz desde que o utilizador consiga identificar corretamente os parâmetros que lhe são pedidos. A interface gráfica desenvolvida permitiu também uma maior facilidade durante a análise do sinal eletrocardiográfico.
Resumo:
Evidence indicates that exposure to high levels of noise adversely affects human health, and these effects are dependent upon various factors. In hospitals, there are many sources of noise, and high levels exert an impact on patients and staff, increasing both recovery time and stress, respectively. The goal of this pilot study was to develop, implement and evaluate the effectiveness of a training program (TP) on noise reduction in a Neonatal Intensive Care Units (NICU) by comparing the noise levels before and after the implementation of the program. A total of 79 health professionals participated in the study. The measurements of sound pressure levels took into account the layout of the unit and location of the main sources of noise. General results indicated that LAeq levels before implementation of the training program were often excessive, ranging from 48.7 ± 2.94 dBA to 71.7 ± 4.74 dBA, exceeding international guidelines. Similarly following implementation of the training program noise levels remained unchanged (54.5 ± 0.49 dBA to 63.9 ± 4.37 dBA), despite a decrease in some locations. There was no significant difference before and after the implementation of TP. However a significant difference was found for Lp, Cpeak, before and after training staff, suggesting greater care by healthcare professionals performing their tasks. Even recognizing that a TP is quite important to change behaviors, this needs to be considered in a broader context to effectively control noise in the NICU.
Resumo:
Este trabalho pretende resolver o problema das alocações de salas a exames no Departamento de Engenharia Mecânica do Instituto Superior de Engenharia do Porto. A solução desenvolvida atribui salas a exames respeitando as restrições de capacidade de salas e a restrição de realização dum único exame por sala num determinado período, por forma a minimizar a atribuição de salas e, consequentemente, docentes a exames. Foi criado um modelo matemático, que representa as variáveis relevantes do problema, e realiza a sua implementação numa plataforma informática amigável para o utilizador. O modelo matemático foi validado comparando as suas soluções com as obtidas através do processo manual. Os resultados do novo método demonstram a sua supremacia relativamente ao modelo atual. No futuro, poderá ser estudada a possibilidade de usar esta ferramenta na resolução do mesmo problema em realidades diferentes da do Departamento de Engenharia Mecânica do ISEP.
Resumo:
Para o projeto de qualquer estrutura existente (edifícios, pontes, veículos, máquinas, etc.) é necessário conhecer as condições de carga, geometria e comportamento de todas as suas partes, assim como respeitar as normativas em vigor nos países nos quais a estrutura será aplicada. A primeira parte de qualquer projeto nesta área passa pela fase da análise estrutural, onde são calculadas todas as interações e efeitos de cargas sobre as estruturas físicas e os seus componentes de maneira a verificar a aptidão da estrutura para o seu uso. Inicialmente parte-se de uma estrutura de geometria simplificada, pondo de parte os elementos físicos irrelevantes (elementos de fixação, revestimentos, etc.) de maneira a simplificar o cálculo de estruturas complexas e, em função dos resultados obtidos da análise estrutural, melhorar a estrutura se necessário. A análise por elementos finitos é a ferramenta principal durante esta primeira fase do projeto. E atualmente, devido às exigências do mercado, é imprescindível o suporte computorizado de maneira a agilizar esta fase do projeto. Existe para esta finalidade uma vasta gama de programas que permitem realizar tarefas que passam pelo desenho de estruturas, análise estática de cargas, análise dinâmica e vibrações, visualização do comportamento físico (deformações) em tempo real, que permitem a otimização da estrutura em análise. Porém, estes programas demostram uma certa complexidade durante a introdução dos parâmetros, levando muitas vezes a resultados errados. Assim sendo, é essencial para o projetista ter uma ferramenta fiável e simples de usar que possa ser usada para fins de projeto de estruturas e otimização. Sobre esta base nasce este projeto tese onde se elaborou um programa com interface gráfica no ambiente Matlab® para a análise de estruturas por elementos finitos, com elementos do tipo Barra e Viga, quer em 2D ou 3D. Este programa permite definir a estrutura por meio de coordenadas, introdução de forma rápida e clara, propriedades mecânicas dos elementos, condições fronteira e cargas a aplicar. Como resultados devolve ao utilizador as reações, deformações e distribuição de tensões nos elementos quer em forma tabular quer em representação gráfica sobre a estrutura em análise. Existe ainda a possibilidade de importação de dados e exportação dos resultados em ficheiros XLS e XLSX, de maneira a facilitar a gestão de informação. Foram realizados diferentes testes e análises de estruturas de forma a validar os resultados do programa e a sua integridade. Os resultados foram todos satisfatórios e convergem para os resultados de outros programas, publicados em livros, e para cálculo a mão feitos pelo autor.
Resumo:
Uma interface cérebro-computador (BCI) não é mais do que um dispositivo que lê e analisa ondas cerebrais e as converte em ações sobre um computador. Com a evolução das BCI e a possibilidade de acesso às mesmas por parte do público começou a ser possível o uso de BCIs para fins lúdicos. Nesse sentido nesta tese foi feito um estudo sobre interfaces cérebro-computador, o que são, que tipos de BCI existem, o seu uso para entretenimento, as suas limitações e o futuro deste tipo de interfaces. Foi ainda criado um software lúdico controlado por BCI (Emotiv EPOC) que é composto por um jogo tipo Pong e um reprodutor de música. O reprodutor de música através de BCI classifica e recomenda músicas ao utilizador. Com esta tese foi possível chegar à conclusão que é possível utilizar BCI para entretenimento (jogos e recomendação de conteúdos) apesar de se ter verificado que para jogos os dispositivos tradicionais de controlo (rato e teclado) ainda têm uma precisão muito superior.
Resumo:
Near real time media content personalisation is nowadays a major challenge involving media content sources, distributors and viewers. This paper describes an approach to seamless recommendation, negotiation and transaction of personalised media content. It adopts an integrated view of the problem by proposing, on the business-to-business (B2B) side, a brokerage platform to negotiate the media items on behalf of the media content distributors and sources, providing viewers, on the business-to-consumer (B2C) side, with a personalised electronic programme guide (EPG) containing the set of recommended items after negotiation. In this setup, when a viewer connects, the distributor looks up and invites sources to negotiate the contents of the viewer personal EPG. The proposed multi-agent brokerage platform is structured in four layers, modelling the registration, service agreement, partner lookup, invitation as well as item recommendation, negotiation and transaction stages of the B2B processes. The recommendation service is a rule-based switch hybrid filter, including six collaborative and two content-based filters. The rule-based system selects, at runtime, the filter(s) to apply as well as the final set of recommendations to present. The filter selection is based on the data available, ranging from the history of items watched to the ratings and/or tags assigned to the items by the viewer. Additionally, this module implements (i) a novel item stereotype to represent newly arrived items, (ii) a standard user stereotype for new users, (iii) a novel passive user tag cloud stereotype for socially passive users, and (iv) a new content-based filter named the collinearity and proximity similarity (CPS). At the end of the paper, we present off-line results and a case study describing how the recommendation service works. The proposed system provides, to our knowledge, an excellent holistic solution to the problem of recommending multimedia contents.
Resumo:
The evolution of the electrical grid into a smart grid, allowing user production, storage and exchange of energy, remote control of appliances, and in general optimizations over how the energy is managed and consumed, is also an evolution into a complex Information and Communication Technology (ICT) system. With the goal of promoting an integrated and interoperable smart grid, a number of organizations all over the world started uncoordinated standardization activities, which caused the emergence of a large number of incompatible architectures and standards. There are now new standardization activities which have the goal of organizing existing standards and produce best practices to choose the right approach(es) to be employed in specific smart grid designs. This paper follows the lead of NIST and ETSI/CEN/CENELEC approaches in trying to provide taxonomy of existing solutions; our contribution reviews and relates current ICT state-of-the-art, with the objective of forecasting future trends based on the orientation of current efforts and on relationships between them. The resulting taxonomy provides guidelines for further studies of the architectures, and highlights how the standards in the last mile of the smart grid are converging to common solutions to improve ICT infrastructure interoperability.
Resumo:
In this manuscript we tackle the problem of semidistributed user selection with distributed linear precoding for sum rate maximization in multiuser multicell systems. A set of adjacent base stations (BS) form a cluster in order to perform coordinated transmission to cell-edge users, and coordination is carried out through a central processing unit (CU). However, the message exchange between BSs and the CU is limited to scheduling control signaling and no user data or channel state information (CSI) exchange is allowed. In the considered multicell coordinated approach, each BS has its own set of cell-edge users and transmits only to one intended user while interference to non-intended users at other BSs is suppressed by signal steering (precoding). We use two distributed linear precoding schemes, Distributed Zero Forcing (DZF) and Distributed Virtual Signalto-Interference-plus-Noise Ratio (DVSINR). Considering multiple users per cell and the backhaul limitations, the BSs rely on local CSI to solve the user selection problem. First we investigate how the signal-to-noise-ratio (SNR) regime and the number of antennas at the BSs impact the effective channel gain (the magnitude of the channels after precoding) and its relationship with multiuser diversity. Considering that user selection must be based on the type of implemented precoding, we develop metrics of compatibility (estimations of the effective channel gains) that can be computed from local CSI at each BS and reported to the CU for scheduling decisions. Based on such metrics, we design user selection algorithms that can find a set of users that potentially maximizes the sum rate. Numerical results show the effectiveness of the proposed metrics and algorithms for different configurations of users and antennas at the base stations.
Resumo:
We propose a fractional model for computer virus propagation. The model includes the interaction between computers and removable devices. We simulate numerically the model for distinct values of the order of the fractional derivative and for two sets of initial conditions adopted in the literature. We conclude that fractional order systems reveal richer dynamics than the classical integer order counterpart. Therefore, fractional dynamics leads to time responses with super-fast transients and super-slow evolutions towards the steady-state, effects not easily captured by the integer order models.