976 resultados para ALEPH intracuny-borrowing module


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação de Mestrado para obtenção do grau de Mestre em Engenharia Eletrotécnica Ramo Automação e Eletrónica Industrial

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Modular design is crucial to manage large-scale systems and to support the divide-and-conquer development approach. It allows hierarchical representations and, therefore, one can have a system overview, as well as observe component details. Petri nets are suitable to model concurrent systems, but lack on structuring mechanisms to support abstractions and the composition of sub-models, in particular when considering applications to embedded controllers design. In this paper we present a module construct, and an underlying high-level Petri net type, to model embedded controllers. Multiple interfaces can be declared in a module, thus, different instances of the same module can be used in different situations. The interface is a subset of the module nodes, through which the communication with the environment is made. Module places can be annotated with a generic type, overridden with a concrete type at instance level, and constants declared in a module may have a new value in each instance.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mestrado em Engenharia Informática - Área de Especialização em Arquiteturas, Sistemas e Redes

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação apresentada na Faculdade de Ciências e Tecnologia da Universidade Nova de Lisboa para obtenção do grau de Mestre em Engenharia Mecânica Especialização em Concepção e Produção

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Hyperspectral remote sensing exploits the electromagnetic scattering patterns of the different materials at specific wavelengths [2, 3]. Hyperspectral sensors have been developed to sample the scattered portion of the electromagnetic spectrum extending from the visible region through the near-infrared and mid-infrared, in hundreds of narrow contiguous bands [4, 5]. The number and variety of potential civilian and military applications of hyperspectral remote sensing is enormous [6, 7]. Very often, the resolution cell corresponding to a single pixel in an image contains several substances (endmembers) [4]. In this situation, the scattered energy is a mixing of the endmember spectra. A challenging task underlying many hyperspectral imagery applications is then decomposing a mixed pixel into a collection of reflectance spectra, called endmember signatures, and the corresponding abundance fractions [8–10]. Depending on the mixing scales at each pixel, the observed mixture is either linear or nonlinear [11, 12]. Linear mixing model holds approximately when the mixing scale is macroscopic [13] and there is negligible interaction among distinct endmembers [3, 14]. If, however, the mixing scale is microscopic (or intimate mixtures) [15, 16] and the incident solar radiation is scattered by the scene through multiple bounces involving several endmembers [17], the linear model is no longer accurate. Linear spectral unmixing has been intensively researched in the last years [9, 10, 12, 18–21]. It considers that a mixed pixel is a linear combination of endmember signatures weighted by the correspondent abundance fractions. Under this model, and assuming that the number of substances and their reflectance spectra are known, hyperspectral unmixing is a linear problem for which many solutions have been proposed (e.g., maximum likelihood estimation [8], spectral signature matching [22], spectral angle mapper [23], subspace projection methods [24,25], and constrained least squares [26]). In most cases, the number of substances and their reflectances are not known and, then, hyperspectral unmixing falls into the class of blind source separation problems [27]. Independent component analysis (ICA) has recently been proposed as a tool to blindly unmix hyperspectral data [28–31]. ICA is based on the assumption of mutually independent sources (abundance fractions), which is not the case of hyperspectral data, since the sum of abundance fractions is constant, implying statistical dependence among them. This dependence compromises ICA applicability to hyperspectral images as shown in Refs. [21, 32]. In fact, ICA finds the endmember signatures by multiplying the spectral vectors with an unmixing matrix, which minimizes the mutual information among sources. If sources are independent, ICA provides the correct unmixing, since the minimum of the mutual information is obtained only when sources are independent. This is no longer true for dependent abundance fractions. Nevertheless, some endmembers may be approximately unmixed. These aspects are addressed in Ref. [33]. Under the linear mixing model, the observations from a scene are in a simplex whose vertices correspond to the endmembers. Several approaches [34–36] have exploited this geometric feature of hyperspectral mixtures [35]. Minimum volume transform (MVT) algorithm [36] determines the simplex of minimum volume containing the data. The method presented in Ref. [37] is also of MVT type but, by introducing the notion of bundles, it takes into account the endmember variability usually present in hyperspectral mixtures. The MVT type approaches are complex from the computational point of view. Usually, these algorithms find in the first place the convex hull defined by the observed data and then fit a minimum volume simplex to it. For example, the gift wrapping algorithm [38] computes the convex hull of n data points in a d-dimensional space with a computational complexity of O(nbd=2cþ1), where bxc is the highest integer lower or equal than x and n is the number of samples. The complexity of the method presented in Ref. [37] is even higher, since the temperature of the simulated annealing algorithm used shall follow a log( ) law [39] to assure convergence (in probability) to the desired solution. Aiming at a lower computational complexity, some algorithms such as the pixel purity index (PPI) [35] and the N-FINDR [40] still find the minimum volume simplex containing the data cloud, but they assume the presence of at least one pure pixel of each endmember in the data. This is a strong requisite that may not hold in some data sets. In any case, these algorithms find the set of most pure pixels in the data. PPI algorithm uses the minimum noise fraction (MNF) [41] as a preprocessing step to reduce dimensionality and to improve the signal-to-noise ratio (SNR). The algorithm then projects every spectral vector onto skewers (large number of random vectors) [35, 42,43]. The points corresponding to extremes, for each skewer direction, are stored. A cumulative account records the number of times each pixel (i.e., a given spectral vector) is found to be an extreme. The pixels with the highest scores are the purest ones. N-FINDR algorithm [40] is based on the fact that in p spectral dimensions, the p-volume defined by a simplex formed by the purest pixels is larger than any other volume defined by any other combination of pixels. This algorithm finds the set of pixels defining the largest volume by inflating a simplex inside the data. ORA SIS [44, 45] is a hyperspectral framework developed by the U.S. Naval Research Laboratory consisting of several algorithms organized in six modules: exemplar selector, adaptative learner, demixer, knowledge base or spectral library, and spatial postrocessor. The first step consists in flat-fielding the spectra. Next, the exemplar selection module is used to select spectral vectors that best represent the smaller convex cone containing the data. The other pixels are rejected when the spectral angle distance (SAD) is less than a given thresh old. The procedure finds the basis for a subspace of a lower dimension using a modified Gram–Schmidt orthogonalizati on. The selected vectors are then projected onto this subspace and a simplex is found by an MV T pro cess. ORA SIS is oriented to real-time target detection from uncrewed air vehicles using hyperspectral data [46]. In this chapter we develop a new algorithm to unmix linear mixtures of endmember spectra. First, the algorithm determines the number of endmembers and the signal subspace using a newly developed concept [47, 48]. Second, the algorithm extracts the most pure pixels present in the data. Unlike other methods, this algorithm is completely automatic and unsupervised. To estimate the number of endmembers and the signal subspace in hyperspectral linear mixtures, the proposed scheme begins by estimating sign al and noise correlation matrices. The latter is based on multiple regression theory. The signal subspace is then identified by selectin g the set of signal eigenvalue s that best represents the data, in the least-square sense [48,49 ], we note, however, that VCA works with projected and with unprojected data. The extraction of the end members exploits two facts: (1) the endmembers are the vertices of a simplex and (2) the affine transformation of a simplex is also a simplex. As PPI and N-FIND R algorithms, VCA also assumes the presence of pure pixels in the data. The algorithm iteratively projects data on to a direction orthogonal to the subspace spanned by the endmembers already determined. The new end member signature corresponds to the extreme of the projection. The algorithm iterates until all end members are exhausted. VCA performs much better than PPI and better than or comparable to N-FI NDR; yet it has a computational complexity between on e and two orders of magnitude lower than N-FINDR. The chapter is structure d as follows. Section 19.2 describes the fundamentals of the proposed method. Section 19.3 and Section 19.4 evaluate the proposed algorithm using simulated and real data, respectively. Section 19.5 presents some concluding remarks.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A otimização nos sistemas de suporte à decisão atuais assume um carácter fortemente interdisciplinar relacionando-se com a necessidade de integração de diferentes técnicas e paradigmas na resolução de problemas reais complexos, sendo que a computação de soluções ótimas em muitos destes problemas é intratável. Os métodos de pesquisa heurística são conhecidos por permitir obter bons resultados num intervalo temporal aceitável. Muitas vezes, necessitam que a parametrização seja ajustada de forma a permitir obter bons resultados. Neste sentido, as estratégias de aprendizagem podem incrementar o desempenho de um sistema, dotando-o com a capacidade de aprendizagem, por exemplo, qual a técnica de otimização mais adequada para a resolução de uma classe particular de problemas, ou qual a parametrização mais adequada de um dado algoritmo num determinado cenário. Alguns dos métodos de otimização mais usados para a resolução de problemas do mundo real resultaram da adaptação de ideias de várias áreas de investigação, principalmente com inspiração na natureza - Meta-heurísticas. O processo de seleção de uma Meta-heurística para a resolução de um dado problema é em si um problema de otimização. As Híper-heurísticas surgem neste contexto como metodologias eficientes para selecionar ou gerar heurísticas (ou Meta-heurísticas) na resolução de problemas de otimização NP-difícil. Nesta dissertação pretende-se dar uma contribuição para o problema de seleção de Metaheurísticas respetiva parametrização. Neste sentido é descrita a especificação de uma Híperheurística para a seleção de técnicas baseadas na natureza, na resolução do problema de escalonamento de tarefas em sistemas de fabrico, com base em experiência anterior. O módulo de Híper-heurística desenvolvido utiliza um algoritmo de aprendizagem por reforço (QLearning), que permite dotar o sistema da capacidade de seleção automática da Metaheurística a usar no processo de otimização, assim como a respetiva parametrização. Finalmente, procede-se à realização de testes computacionais para avaliar a influência da Híper- Heurística no desempenho do sistema de escalonamento AutoDynAgents. Como conclusão genérica, é possível afirmar que, dos resultados obtidos é possível concluir existir vantagem significativa no desempenho do sistema quando introduzida a Híper-heurística baseada em QLearning.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A utilização de aplicações Web 2.0 no processo ensino/aprendizagem tem vindo a intensificar-se nos últimos tempos, mais por iniciativas individuais de docentes e estudantes do que por estratégia das Instituições de Ensino. Este artigo apresenta um projecto já em curso que consiste na implementação de uma plataforma de criação de ambientes de aprendizagem controlados pelos estudantes, integrando aplicações Web 2.0 e sistemas de gestão de conteúdos. A plataforma permitirá a utilização segura de conteúdos criados em aplicações Web 2.0, no processo de avaliação, possibilitando a sua publicação na infra-estrutura controlada pela Instituição de Ensino Superior, contribuindo assim para a adequação do binómio ensino/aprendizagem ao novo paradigma implicado no processo de Bolonha.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O uso da tecnologia tem crescido nas últimas décadas nas mais diversas áreas, seja na indústria ou no dia-a-dia, e é cada vez mais evidente os benefícios que traz. No desporto não é diferente. Cada dia surgem novos desenvolvimentos objetivando a melhoria do desempenho dos praticantes de atividades físicas, possibilitando atingir resultados nunca antes pensados. Além disto, a utilização da tecnologia no desporto permite a obtenção de dados biomecânicos que podem ser utilizados tanto no treinamento quando na melhoria da qualidade de vida dos atletas auxiliando na prevenção de lesões, por exemplo. Deste modo, o presente projeto se aplica na área do desporto, nomeadamente, na modalidade do surfe, onde a ausência de trabalhos científicos ainda é elevada, aliando a tecnologia eletrônica ao desporto para quantificar informações até então desconhecidas. Três fatores básicos de desempenho foram levantados, sendo eles: equilíbrio, posicionamento dos pés e movimentação da prancha de surfe. Estes fatores levaram ao desenvolvimento de um sistema capaz de medi-los dinamicamente através da medição das forças plantares e da rotação da prancha de surfe. Além da medição dos fatores, o sistema é capaz de armazenar os dados adquiridos localmente através de um cartão de memória, para posterior análise; e também enviá-los através de uma comunicação sem fio, permitindo a visualização do centro de pressões plantares; dos ângulos de rotação da prancha de surfe; e da ativação dos sensores; em tempo real. O dispositivo consiste em um sistema eletrônico embarcado composto por um microcontrolador ATMEGA1280; um circuito de aquisição e condicionamento de sinal analógico; uma central inercial; um módulo de comunicação sem fio RN131; e um conjunto de sensores de força Flexiforce. O firmware embarcado foi desenvolvido em linguagem C. O software Matlab foi utilizado para receção de dados e visualização em tempo real. Os testes realizados demostraram que o funcionamento do sistema atende aos requisitos propostos, fornecendo informação acerca do equilíbrio, através do centro de pressões; do posicionamento dos pés, através da distribuição das pressões plantares; e do movimento da prancha nos eixos pitch e roll, através da central inercial. O erro médio de medição de força verificado foi de -0.0012 ± 0.0064 N, enquanto a mínima distância alcançada na transmissão sem fios foi de 100 m. A potência medida do sistema foi de 330 mW.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os osciloscópios digitais são utilizados em diversas áreas do conhecimento, assumindo-se no âmbito da engenharia electrónica, como instrumentos indispensáveis. Graças ao advento das Field Programmable Gate Arrays (FPGAs), os instrumentos de medição reconfiguráveis, dadas as suas vantagens, i.e., altos desempenhos, baixos custos e elevada flexibilidade, são cada vez mais uma alternativa aos instrumentos tradicionalmente usados nos laboratórios. Tendo como objectivo a normalização no acesso e no controlo deste tipo de instrumentos, esta tese descreve o projecto e implementação de um osciloscópio digital reconfigurável baseado na norma IEEE 1451.0. Definido de acordo com uma arquitectura baseada nesta norma, as características do osciloscópio são descritas numa estrutura de dados denominada Transducer Electronic Data Sheet (TEDS), e o seu controlo é efectuado utilizando um conjunto de comandos normalizados. O osciloscópio implementa um conjunto de características e funcionalidades básicas, todas verificadas experimentalmente. Destas, destaca-se uma largura de banda de 575kHz, um intervalo de medição de 0.4V a 2.9V, a possibilidade de se definir um conjunto de escalas horizontais, o nível e declive de sincronismo e o modo de acoplamento com o circuito sob análise. Arquitecturalmente, o osciloscópio é constituído por um módulo especificado com a linguagem de descrição de hardware (HDL, Hardware Description Language) Verilog e por uma interface desenvolvida na linguagem de programação Java®. O módulo é embutido numa FPGA, definindo todo o processamento do osciloscópio. A interface permite o seu controlo e a representação do sinal medido. Durante o projecto foi utilizado um conversor Analógico/Digital (A/D) com uma frequência máxima de amostragem de 1.5MHz e 14 bits de resolução que, devido às suas limitações, obrigaram à implementação de um sistema de interpolação multi-estágio com filtros digitais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

No decorrer dos últimos anos tem-se verificado um acréscimo do número de sistemas de videovigilância presentes nos mais diversos ambientes, sendo que estes se encontram cada vez mais sofisticados. Os casinos são um exemplo bastante popular da utilização destes sistemas sofisticados, sendo que vários casinos, hoje em dia, utilizam câmeras para controlo automático das suas operações de jogo. No entanto, atualmente existem vários tipos de jogos em que o controlo automático ainda não se encontra disponível, sendo um destes, o jogo Banca Francesa. A presente dissertação tem como objetivo propor um conjunto de algoritmos idealizados para um sistema de controlo e gestão do jogo de casino Banca Francesa através do auxílio de componentes pertencentes à área da computação visual, tendo em conta os contributos mais relevantes e existentes na área, elaborados por investigadores e entidades relacionadas. No decorrer desta dissertação são apresentados quatro módulos distintos, os quais têm como objetivo auxiliar os casinos a prevenir o acontecimento de fraudes durante o decorrer das suas operações, assim como auxiliar na recolha automática de resultados de jogo. Os quatro módulos apresentados são os seguintes: Dice Sample Generator – Módulo proposto para criação de casos de teste em grande escala; Dice Sample Analyzer – Módulo proposto para a deteção de resultados de jogo; Dice Calibration – Módulo proposto para calibração automática do sistema; Motion Detection – Módulo proposto para a deteção de fraude no jogo. Por fim, para cada um dos módulos, é apresentado um conjunto de testes e análises de modo a verificar se é possível provar o conceito para cada uma das propostas apresentadas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tendo por referência a diretiva 2006/95/CE, o trabalho desenvolvido no contexto da disciplina de Dissertação/Projeto/Estágio do Mestrado de Engenharia de Instrumentação e Metrologia, decorreu nas instalações do IEP (Instituto Electrotécnico Português) e teve como objetivo principal o desenvolvimento de um procedimento de avaliação dos efeitos fotobiológicos no olho e pele provocados por fontes de emissão contínua (LED), doravante designado método alternativo ao de referência. Os dois métodos, alternativo e de referência, utilizam respectivamente um foto-radiómetro multicanal e um espetro-radiómetro. O procedimento desenvolvido (método alternativo) de acordo com a norma EN/IEC62471) consiste na aquisição dos valores de irradiância com recurso a um foto-radiómetro e posterior determinação dos valores da radiância, com os quais se faz a avaliação dos efeitos fotobiológicos, para fontes de luz LED (Light Emitting Diode) ou GLS (General Lighting Service). A consulta detalhada da norma EN/IEC62471 e a pesquisa sobre os conceitos, definições, equipamentos e metodologias relacionadas com o tema em causa, constituiu o primeiro passo deste projecto. Com recurso aos dois equipamentos, uma fonte de luz LED (módulo de 12 lâmpadas LED) é avaliada em relação aos perigos (ou riscos) actínico UV e UV-A, ao perigo da luz azul e ainda o perigo térmico na retina e térmico na pele, permitindo fazer uma análise comparativa dos resultados. O método alternativo revelou-se bastante flexível e eficaz, proporcionando bons resultados em termos da irradiância e radiância dos referidos efeitos fotobiológicos. A comparação destes resultados com os valores limites de exposição mencionados na norma EN/IEC6247 permitiu afirmar que a fonte de luz LED avaliada não representa perigo fotobiológico para a saúde humana e classifica-se no grupo de risco “isento”. Uma vez cumpridos os objectivos, entendeu-se que seria uma mais-valia para o trabalho já realizado, estudar outro caso prático. Sendo assim, fez-se a avaliação da radiação de apenas um dos LED´s que constituíam a fonte usada nos ensaios anteriores, com o espetro-radiómetro (método de referência) e com uma distância de 200 mm entre a fonte e o medidor. Neste caso verificaram-se diferenças significativas nas quantidades obtidas quando comparadas com os valores normativos. Concluiu-se que o efeito fotobiológico da luz azul insere-se no grupo de “isento”, sem perigo para a saúde. Contudo, o efeito térmico da retina apresenta um aumento considerável da quantidade de radiância, embora dentro do grupo de risco “isento”. Esta classificação de grupos de risco. Face aos resultados obtidos, pode confirmar-se que as lâmpadas LED apresentam segurança fotobiológica, atendendo aos baixos valores de irradiância e radiância dos efeitos fotobiológicos estudados. Pode ainda afirmar-se que a utilização do foto-radiómetro em alternativa ao espetro-radiómetro se revela mais eficaz do ponto de vista de metodologia prática. Este trabalho demonstra a robustez desses dois equipamentos de avaliação dos efeitos fotobiológicos, e procura estabelecer uma linha de orientação para a prevenção dos efeitos adversos na pele e olhos de todos os seres humanos sujeitos à radiação ótica artificial. Quanto às incertezas de medições, em relação ao processo de medição com foto-radiómetro, a sua estimação não se realizou, devido a não rastreabilidade entre as medições indicadas pelo fabricante, no certificado de calibração e as medidas realizadas por outras entidades. Contudo, é propõe-se a sua realização em trabalhos futuros dentro desse âmbito. As incertezas dos resultados de medições com espetro-radiómetro foram parcialmente estimadas. Atendendo às potencialidades do sistema de medição, propõe-se como trabalho futuro, a aplicação da norma IEC62478, que faz parte da aplicação da norma EN/IEC62471 na avaliação do efeito da luz azul, com base na determinação da temperatura de cor correlacionada (CCT) de lâmpadas ou sistemas de lâmpadas incluindo luminárias. Os valores de irradiância e radiância adquiridos nos processos de avaliação, tanto com foto-radiómetro como espectro-radiómetro foram gravados em ficheiro Excel para um CD e anexados a este trabalho.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This document presents a tool able to automatically gather data provided by real energy markets and to generate scenarios, capture and improve market players’ profiles and strategies by using knowledge discovery processes in databases supported by artificial intelligence techniques, data mining algorithms and machine learning methods. It provides the means for generating scenarios with different dimensions and characteristics, ensuring the representation of real and adapted markets, and their participating entities. The scenarios generator module enhances the MASCEM (Multi-Agent Simulator of Competitive Electricity Markets) simulator, endowing a more effective tool for decision support. The achievements from the implementation of the proposed module enables researchers and electricity markets’ participating entities to analyze data, create real scenarios and make experiments with them. On the other hand, applying knowledge discovery techniques to real data also allows the improvement of MASCEM agents’ profiles and strategies resulting in a better representation of real market players’ behavior. This work aims to improve the comprehension of electricity markets and the interactions among the involved entities through adequate multi-agent simulation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The use of demand response programs enables the adequate use of resources of small and medium players, bringing high benefits to the smart grid, and increasing its efficiency. One of the difficulties to proceed with this paradigm is the lack of intelligence in the management of small and medium size players. In order to make demand response programs a feasible solution, it is essential that small and medium players have an efficient energy management and a fair optimization mechanism to decrease the consumption without heavy loss of comfort, making it acceptable for the users. This paper addresses the application of real-time pricing in a house that uses an intelligent optimization module involving artificial neural networks.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The energy sector in industrialized countries has been restructured in the last years, with the purpose of decreasing electricity prices through the increase in competition, and facilitating the integration of distributed energy resources. However, the restructuring process increased the complexity in market players' interactions and generated emerging problems and new issues to be addressed. In order to provide players with competitive advantage in the market, decision support tools that facilitate the study and understanding of these markets become extremely useful. In this context arises MASCEM (Multi-Agent Simulator of Competitive Electricity Markets), a multi-agent based simulator that models real electricity markets. To reinforce MASCEM with the capability of recreating the electricity markets reality in the fullest possible extent, it is crucial to make it able to simulate as many market models and player types as possible. This paper presents a new negotiation model implemented in MASCEM based on the negotiation model used in day-ahead market (Elspot) of Nord Pool. This is a key module to study competitive electricity markets, as it presents well defined and distinct characteristics from the already implemented markets, and it is a reference electricity market in Europe (the one with the larger amount of traded power).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A forma como aprendemos depende do contexto tecnológico e sociocultural que nos rodeia, actualmente a inclusão de tecnologia recente na sala de aula não é mais considerada opcional, mas sim uma necessidade pois a forma como o aluno aprende está em constante evolução. Tendo em atenção esta necessidade, foi desenvolvido no decorrer desta tese um simulador em realidade virtual que utiliza comandos/interfaces hápticos. O objectivo deste simulador é ensinar conceitos de física de forma interactiva. Os dispositivos hápticos permitem adicionar o sentido táctil ou de toque à interacção entre homem e máquina, permitindo assim aceder a novas sensações relativas ao seu uso nomeadamente com objectivos de aprendizagem. O simulador desenvolvido designado por “Forces of Physics” aborda três tipos de forças da física: forças de atrito, forças gravitacionais e forças aerodinâmicas. Cada tipo de força corresponde a um módulo do simulador contendo uma simulação individual em que são explicados conceitos específicos dessa força num ambiente visual estimulante e com uma interacção mais realista devido à inclusão do dispositivo háptico Novint Falcon. O simulador foi apresentado a vários utilizadores bem como á comunidade científica através de apresentações em conferências. A avaliação foi realizada com recurso a um questionário com dez perguntas, cinco de sobre aprendizagem e cinco sobre a utilização, tendo sido preenchido por 14 utilizadores. O simulador obteve uma boa recepção por parte dos utilizadores, tendo vários utilizadores expressado as suas opiniões sobre estado actual do simulador, do futuro do mesmo e da respectiva validade para uso na sala de aula.