2 resultados para user interface design
em CiencIPCA - Instituto Politécnico do Cávado e do Ave, Portugal
Resumo:
O objectivo principal deste estudo é tentar identificar as possibilidades de melhoria das interfaces físicas das consolas centrais dos automóveis, e a sua ergonomia e usabilidade enquanto meio de realização de tarefas dentro do veículo, de modo a contribuir para melhorar a experiência e a segurança na condução. Neste estudo é feita uma investigação acerca de algumas das interfaces físicas das consolas centrais, medindo o seu desempenho no que diz respeito à distracção do condutor e facilidade de uso em situações de dupla tarefa. Para isso foi adaptado um simulador de condução, e uma bateria de testes de situações de dupla tarefa foi efectuada, de modo a obter dados de telemetria de condução e de desempenho de cada interface da consola central. Os dados obtidos acerca da trajectória do veículo e da sua comparação com trajectórias de referência e a velocidade média nos sectores de condução, foram comparados com dados de desvio de olhar, e que por sua vez sã o comparados e relacionados com os dados de percepção própria do condutor, obtidos através dos testes subjectivos de auto-percepção NASA - Administração Nacional da Aeronáutica e do Espaço - Raw Task Load Index (NASA RTLX). É esperado que desta análise possam ser encontradas algumas conclusões que deverão indicar oportunidades de melhoria às interfaces das consolas centrais, que possam resultar de uma combinação ou divisão dos sistemas, ou que abram caminho ao desenvolvimento de novas soluções alternativas, ou até à criação de um guia de boas práticas para o futuro design e desenvolvimento de interfaces de consolas centrais para automóveis.
Resumo:
A interação homem-máquina tem evoluído significativamente nos últimos anos, a ponto de permitir desenvolver soluções adequadas para apoio a pessoas que possuem um certo tipo de limitação física ou cognitiva. O desenvolvimento de técnicas naturais e intuitivas de interação, as chamadas Natural User Interface (NUI), permitem, hoje, que pessoas que estejam acamadas e/ou com incapacidade motora possam executar um conjunto de ações por intermédio de gestos, aumentando assim a sua qualidade de vida. A solução implementada neste projecto é baseada em processamento de imagem e visão por computador através do sensor 3D Kinect e consiste numa interface natural para o desenvolvimento de uma aplicação que reconheça gestos efetuados por uma mão humana. Os gestos identificados pela aplicação acionam um conjunto de ações adequados a uma pessoa acamada, como, por exemplo, acionar a emergência, ligar ou desligar a TV ou controlar a inclinação da cama. O processo de desenvolvimento deste projeto implicou várias etapas. Inicialmente houve um trabalho intenso de investigação sobre as técnicas e tecnologias consideradas importantes para a realização do trabalho - a etapa de investigação, a qual acompanhou praticamente todo o processo. A segunda etapa consistiu na configuração do sistema ao nível do hardware e do software. Após a configuração do sistema, obtiveram-se os primeiros dados do sensor 3D Kinect, os quais foram convertidos num formato mais apropriado ao seu posterior tratamento. A segmentação da mão permitiu posteriormente o reconhecimento de gestos através da técnica de matching para os seis gestos implementados. Os resultados obtidos são satisfatórios, tendo-se contabilizado cerca de 96% de resultados válidos. A área da saúde e bem-estar tem necessidade de aplicações que melhorem a qualidade de vida de pessoas acamadas, nesse sentido, o protótipo desenvolvido faz todo o sentido na sociedade actual, onde se verifica o envelhecimento da população.