964 resultados para SCENARIOS
Resumo:
A crescente necessidade de meios de inspecção e recolha de informação de infraestruturas e do meio ambiente natural, origina o recurso a meios tecnológicos cada vez mais evoluídos. Neste contexto, os robôs móveis autónomos aéreos surgem como uma ferramenta importante. Em particular, os veículos aéreos de asa móvel, pela sua manobrabilidade e controlo podem-se utilizar eficazmente em meios complexos como cenários interiores onde o ambiente é parcialmente controlado. A sua utilização em coordenação com outros veículos robóticos móveis e em particular com a crescente autonomia de decisão, permitem uma eficiência elevada, por exemplo, em tarefas de recolha automática de informação, vigilância, apoio a comunicações, etc. A inexistência de um veículo autónomo de asa móvel no cenário multi-robótico desenvolvido pelo Laboratório de Sistemas Autónomos do Instituto Superior de Engenharia do Porto, aliada às suas aplicações referidas, criou a necessidade do desenvolvimento de um veículo desta gama. Identificou-se, pois, o desenvolvimento de um veículo autónomo aéreo do tipo quadrotor com capacidade de vôo base estabilizado como o problema a resolver. Foi efectuado um levantamento de requisitos do sistema, a caracterização de um veículo autónomo aéreo Vertical Take-off and Landing - VTOL, e efectuado um trabalho de pesquisa a fim de possibilitar o conhecimento das técnicas e tecnologias envolvidas. Tendo em vista o objectivo de controlo e estabilização do veículo, foi efectuada a modelização do sistema que serviu não só para a melhor compreensão da sua dinâmica mas também para o desenvolvimento de um simulador que possibilitou a validação de estratégias de controlo e avaliação de comportamentos do veículo para diferentes cenários. A inexistência de controladores de motores brushless adequada (frequência de controlo), originou o desenvolvimento de um controlador dedicado para motores brushless, motores esses utilizados para a propulsão do veículo. Este controlador permite uma taxa de controlo a uma frequência de 20KHz, possui múltiplas interfaces de comunicação (CAN, RS232, Ethernet, SPI e JTAG), é de reduzido peso e dimensões e modular, visto ter sido implementado em dois módulos, i.e., permite a sua utilização com diferentes interfaces de potência. Projectou-se um veículo autónomo aéreo em termos físicos com a definição da sua arquitectura de hardware e software bem como o sistema de controlo de vôo. O sistema de estabilização de vôo compreende o processamento de informação fornecida por um sistema de navegação inercial, um sonar e o envio de referências de velocidade para cada um dos nós de controlo ligados a um barramento CAN instalado no veículo. A implementação do veículo foi alcançada nas suas vertentes mecânica, de hardware e software. O UAV foi equipado com um sistema computacional dotando-o de capacidades para o desempenho de tarefas previamente analisadas. No presente trabalho, são também tiradas algumas conclusões sobre o desenvolvimento do sistema e sua implementação bem como perspectivada a sua evolução futura no contexto de missões coordenadas de múltiplos veículos robóticos.
Resumo:
The discussion of possible scenarios for the future of Quality is on the priority list of major Quality Practitioners Societies. EOQ – European Organization for Quality (EOQ, 2014) main team for its 58th EOQ-Congress held June 2014 in Göteborg was “Managing Challenges in Quality Leadership” and ASQ - American Society for Quality (ASQ, 2015) appointed “the Future of Quality” for Quality Progress Magazine November 2015 issue. In addition, the ISO 9001:2008 revision process carried by ISO/TC 176 aims to assure that ISO 9001:2015 International Standard remains stable for the next 10 years (ISO, 2014) contributing to an increased discussion on the future of quality. The purpose of this research is to review available Quality Management approaches and outline, adding an academic perspective, expected developments for Quality within the 21st Century. This paper follows a qualitative approach, although data from international organizations is used. A literature review has been undertaken on quality management past and potential future trends. Based on these findings a model is proposed for organization quality management development and propositions for the future of quality management are advanced. Firstly, a state of the art of existing Quality Management approaches is presented, for example, like Total Quality Management (TQM) and Quality Gurus, ISO 9000 International Standards Series (with an outline of the expected changes for ISO 9001:2015), Six Sigma and Business Excellence Models.Secondly, building on theoretical and managerial approaches, a two dimensional matrix – Quality Engineering (QE - technical aspects of quality) and Quality Management (QM: soft aspects of quality) - is presented, outlining five proposed characterizations of Quality maturity levels and giving insights for applications and future developments. Literature review highlights that QM and QE may be addressing similar quality issues but their approaches are different in terms of scope breadth and intensity and they ought to complement and reciprocally reinforce one another. The challenges organizations face within the 21st century have stronger uncertainty, complexity, and differentiation. Two main propositions are advanced as relevant for 21st Century Quality: - QM importance for the sustainable success of organizations will increase and they should be aware of the larger ecosystem to be managed for improvement, possibly leading to the emergence of a new Quality paradigm, The Civilizacional Excellence paradigm. - QE should get more attention from QM and the Quality professionals will have to: a) Master and apply in wider contexts and in additional depth the Quality Tools (basic, intermediate and advanced); b) Have the soft skills needed for its success; c) Be results oriented and better understand and demonstrate the relationships between approaches and results These propositions challenge both scholars and practitioners for a sustained and supported discussion on the future of Quality. “All things are ready, if our mind be so.” (Shakespeare, Henry V, circa 1599).
Resumo:
Esta dissertação apresenta um estudo sobre os problemas de sequenciamento de tarefas de produção do tipo job shop scheduling. Os problemas de sequenciamento de tarefas de produção pretendem encontrar a melhor sequência para o processamento de uma lista de tarefas, o instante de início e término de cada tarefa e a afetação de máquinas para as tarefas. Entre estes, encontram-se os problemas com máquinas paralelas, os problemas job shop e flow shop. As medidas de desempenho mais comuns são o makespan (instante de término da execução de todas as tarefas), o tempo de fluxo total, a soma dos atrasos (tardiness), o atraso máximo, o número de tarefas que são completadas após a data limite, entre outros. Num problema do tipo job shop, as tarefas (jobs) consistem num conjunto de operações que têm de ser executadas numa máquina pré-determinada, obedecendo a um determinado sequenciamento com tempos pré-definidos. Estes ambientes permitem diferentes cenários de sequenciamento das tarefas. Normalmente, não são permitidas interrupções no processamento das tarefas (preemption) e pode ainda ser necessário considerar tempos de preparação dependentes da sequência (sequence dependent setup times) ou atribuir pesos (prioridades) diferentes em função da importância da tarefa ou do cliente. Pretende-se o estudo dos modelos matemáticos existentes para várias variantes dos problemas de sequenciamento de tarefas do tipo job shop e a comparação dos resultados das diversas medidas de desempenho da produção. Este trabalho contribui para demonstrar a importância que um bom sequenciamento da produção pode ter na sua eficiência e consequente impacto financeiro.
Resumo:
Dissertação para obtenção do Grau de Doutor em Ambiente, pela Universidade Nova de Lisboa, Faculdade de Ciências e Tecnologia
Resumo:
Atualmente, as Tecnologias de Informação (TI) são cada vez mais vitais dentro das organizações. As TI são o motor de suporte do negócio. Para grande parte das organizações, o funcionamento e desenvolvimento das TI têm como base infraestruturas dedicadas (internas ou externas) denominadas por Centro de Dados (CD). Nestas infraestruturas estão concentrados os equipamentos de processamento e armazenamento de dados de uma organização, por isso, são e serão cada vez mais desafiadas relativamente a diversos fatores tais como a escalabilidade, disponibilidade, tolerância à falha, desempenho, recursos disponíveis ou disponibilizados, segurança, eficiência energética e inevitavelmente os custos associados. Com o aparecimento das tecnologias baseadas em computação em nuvem e virtualização, abrese todo um leque de novas formas de endereçar os desafios anteriormente descritos. Perante este novo paradigma, surgem novas oportunidades de consolidação dos CD que podem representar novos desafios para os gestores de CD. Por isso, é no mínimo irrealista para as organizações simplesmente eliminarem os CD ou transforma-los segundo os mais altos padrões de qualidade. As organizações devem otimizar os seus CD, contudo um projeto eficiente desta natureza, com capacidade para suportar as necessidades impostas pelo mercado, necessidades dos negócios e a velocidade da evolução tecnológica, exigem soluções complexas e dispendiosas tanto para a sua implementação como a sua gestão. É neste âmbito que surge o presente trabalho. Com o objetivo de estudar os CD inicia-se um estudo sobre esta temática, onde é detalhado o seu conceito, evolução histórica, a sua topologia, arquitetura e normas existentes que regem os mesmos. Posteriormente o estudo detalha algumas das principais tendências condicionadoras do futuro dos CD. Explorando o conhecimento teórico resultante do estudo anterior, desenvolve-se uma metodologia de avaliação dos CD baseado em critérios de decisão. O estudo culmina com uma análise sobre uma nova solução tecnológica e a avaliação de três possíveis cenários de implementação: a primeira baseada na manutenção do atual CD; a segunda baseada na implementação da nova solução em outro CD em regime de hosting externo; e finalmente a terceira baseada numa implementação em regime de IaaS.
Resumo:
Neste trabalho é efetuado o dimensionamento de sistemas fotovoltaicos para serem instalados em edificações localizadas em Angola com o objetivo de analisar a produção de energia elétrica através de sistemas fotovoltaicos. Utilizando o software PVsyst na versão 6.3.2 foram dimensionados três sistemas fotovoltaicos, dois sistemas destinados a ser instalados numa residência, um ligado à rede e o outro autónomo e por fim um sistema fotovoltaico ligado à rede para uma instalação industrial. A determinação dos custos de investimento nos três sistemas foi obtida de forma aproximada, tendo como base preços dos equipamentos no mercado Português e considerando os custos de importação de mercadorias no mercado Angolano. Para os sistemas ligados à rede é analisada a rentabilidade financeira do investimento durante o período de vida útil dos módulos fotovoltaicos considerando três cenários distintos. No primeiro cenário o valor da remuneração pela energia vendida pelo produtor é igual ao valor pago pela energia comprada. No segundo e terceiros cenário de análise económica pretende-se encontrar uma tarifa de energia que torne o investimento rentável com um período de amortização de 7 e 12 anos respetivamente.
Resumo:
As plataformas com múltiplos núcleos tornaram a programação paralela/concorrente num tópico de interesse geral. Diversos modelos de programação têm vindo a ser propostos, facilitando aos programadores a identificação de regiões de código potencialmente paralelizáveis, deixando ao sistema operativo a tarefa de as escalonar dinamicamente em tempo de execução, explorando o maior grau possível de paralelismo. O Java não foge a esta tendência, disponibilizando ao programador um número crescente de bibliotecas de mecanismos de sincronização e paralelização de código. Neste contexto, esta tese apresenta e discute um conjunto de resultados obtidos através de testes intensivos à eficiência de algoritmos de ordenação implementados com recurso aos mecanismos de concorrência da API do Java 8 (Threads, Threadpools, ExecutorService, CountdownLach, ExecutorCompletionService e ForkJoinPools) em sistemas com um número de núcleos variável. Para cada um dos mecanismos, são apresentadas conclusões sobre o seu funcionamento e discutidos os cenários em que o seu uso pode ser rentabilizado de modo a serem obtidos melhores tempos de execução.
Resumo:
Dissertation submitted in partial fulfillment of the requirements for the Degree of Master of Science in Geospatial Technologies.
Resumo:
Neste projeto pretende-se utilizar uma fonte energética renovável (nomeadamente a biomassa), no âmbito da produção de água quente para aquecimento central das instalações do Instituto Superior de Engenharia do Porto (ISEP). O objetivo principal remete para a avaliação técnico-económica da substituição das quinze caldeiras existentes, alimentadas a gás natural, por seis caldeiras alimentadas a biomassa, nomeadamente a pellets. Desta forma, permite-se apostar na biomassa como uma alternativa para reduzir a dependência dos combustíveis fósseis. Neste trabalho apresenta-se uma comparação realista do sistema de aquecimento existente face ao novo a implementar, alimentado por um combustível renovável utilizando caldeiras a pellets de 85% de rendimento. Para realizar esta comparação, usou-se as faturas energéticas de gás natural do ISEP, o custo da quantidade equivalente necessária de pellets, os custos de manutenção dos dois tipos de caldeiras e, os custos do consumo de energia elétrica por parte de ambas as caldeiras. Com este estudo, estimou-se uma poupança anual de 84.100,76 €/ano. Determinaram-se experimentalmente, em laboratório, os parâmetros essenciais de uma amostra de pellets, que foram usados para calcular as necessidades energéticas em biomassa no ISEP, bem como a produção de cinzas gerada por parte das caldeiras. Foi proposto um destino ambientalmente adequado para os 788,5 kg/ano de cinzas obtidas – a utilização na compostagem, após tratamento e aprovação de ensaios ecotoxicológicos realizados pela empresa que fará a sua recolha. As caldeiras a pellets terão um consumo mínimo teórico de 16,47 kgpellets/h, consumindo previsivelmente 197,13 tpellets/ano. Para este efeito, serão usadas caldeiras Quioto de 150 kW da marca Zantia. Para comparar distintas possibilidades de investimento para o projeto, avaliaram-se dois cenários: um foi escolhido de forma a cobrir o somatório da potência instalada das caldeiras atuais e o outro de forma a responder aos consumos energéticos em aquecimento atuais. Além disso, avaliaram-se cenários de financiamento do investimento distintos: um dos cenários corresponde ao pagamento do investimento total do projeto no momento da aquisição das caldeiras, enquanto o outro cenário, mais provável de ser escolhido, refere-se ao pedido de um empréstimo ao banco, no valor de 75% do investimento total. Para o cenário mais provável de investimento, obteve-se um VAL de 291.364,93 €/ano, com taxa interna de rentabilidade (TIR) de 17 %, um índice de rentabilidade (IR) de 1,85 e um período de retorno (PBP) de 5 anos. Todos os cenários avaliados registam rentabilidade do projeto de investimento, sem risco para o projeto.
Resumo:
A liberalização dos mercados de energia elétrica e a crescente integração dos recursos energéticos distribuídos nas redes de distribuição, nomeadamente as unidades de produção distribuída, os sistemas de controlo de cargas através dos programas de demand response, os sistemas de armazenamento e os veículos elétricos, representaram uma evolução no paradigma de operação e gestão dos sistemas elétricos. Este novo paradigma de operação impõe o desenvolvimento de novas metodologias de gestão e controlo que permitam a integração de todas as novas tecnologias de forma eficiente e sustentável. O principal contributo deste trabalho reside no desenvolvimento de metodologias para a gestão de recursos energéticos no contexto de redes inteligentes, que contemplam três horizontes temporais distintos (24 horas, 1 hora e 5 minutos). As metodologias consideram os escalonamentos anteriores assim como as previsões atualizadas de forma a melhorar o desempenho total do sistema e consequentemente aumentar a rentabilidade dos agentes agregadores. As metodologias propostas foram integradas numa ferramenta de simulação, que servirá de apoio à decisão de uma entidade agregadora designada por virtual power player. Ao nível das metodologias desenvolvidas são propostos três algoritmos de gestão distintos, nomeadamente para a segunda (1 hora) e terceira fase (5 minutos) da ferramenta de gestão, diferenciados pela influência que os períodos antecedentes e seguintes têm no período em escalonamento. Outro aspeto relevante apresentado neste documento é o teste e a validação dos modelos propostos numa plataforma de simulação comercial. Para além das metodologias propostas, a aplicação permitiu validar os modelos dos equipamentos considerados, nomeadamente, ao nível das redes de distribuição e dos recursos energéticos distribuidos. Nesta dissertação são apresentados três casos de estudos, cada um com diferentes cenários referentes a cenários de operação futuros. Estes casos de estudos são importantes para verificar a viabilidade da implementação das metodologias e algoritmos propostos. Adicionalmente são apresentadas comparações das metodologias propostas relativamente aos resultados obtidos, complexidade de gestão em ambiente de simulação para as diferentes fases da ferramenta proposta e os benefícios e inconvenientes no uso da ferramenta proposta.
Resumo:
Este relatório é elaborado no âmbito do estágio curricular no regime de parceria entre o Instituto Superior de Engenharia do Porto e o gabinete de projetos SE2P – Sociedade de Engenharia, Projetos e Planeamento, Lda. O tema do estágio é o estudo de colunas mistas aço-betão na vertente de projeto, mais concretamente através da criação dum processo de cálculo automático integrado com o modelo estrutural global. Aplicam-se os métodos de dimensionamento dos eurocódigos estruturais na avaliação da segurança dos estados limites. Avaliam-se as propriedades geométricas, determina-se a curva de interação, calcula-se a posição do eixo neutro donde se inferem os estados de tensão em flexão desviada ao nível da secção, necessários às verificações de segurança. O processo de cálculo tem por base uma folha de cálculo desenvolvida em Excel que, com ajuda do Visual Basic for Applications, comunica com o software de modelação e cálculo estrutural Autodesk Robot Professional Analisys. Cria-se fluxos de informação que possibilitam o cálculo iterativo de colunas mistas permitindo ajustar e por esta via otimizar as soluções de dimensionamento. A exportação de relatórios de cálculo detalhados para cada coluna constitui uma mais-valia para gabinetes de engenharia quando comparada com outras soluções de dimensionamento existentes no mercado. A aplicação do processo de cálculo desenvolvido a múltiplas combinações de soluções de colunas mistas permitiu analisar comparativamente os resultados obtidos e a criação de tabelas e ábacos que poderão ser úteis em cenários de pré-dimensionamento e de anteprojeto.
Resumo:
Dissertação para obtenção do Grau de Mestre em Engenharia Informática
Resumo:
Delay Tolerant Network (DTN) é uma arquitetura de redes que procura resolver os problemas associados à conetividade intermitente de sistemas e possibilita a existência de comunicações em ambientes onde o conjunto de protocolos tradicionais TCP/IP não funciona. A arquitetura DTN é adequada a cenários com uma topologia de rede dinâmica, densidade de nós reduzida, conetividade intermitente e de curta duração entre os nós, e em que as aplicações são tolerantes ao atraso. Nesta dissertação é apresentada uma solução de baixo custo recorrendo ao conceito DTN que permite a utilizadores de embarcações utilizarem o serviço de correio eletrónico no mar. A solução estende o sistema de correio eletrónico ao cenário marítimo recorrendo a estações na costa, comunicação sem fios entre embarcações e entre estas e a estações na costa, e à capacidade das embarcações funcionarem como meios de transporte de dados. Para proceder à validação da proposta apresentada, foi implementado um protótipo com o sistema de correio eletrónico adaptado ao cenário marítimo. O protótipo é constituído por vários nós, configurados de forma a assumir o papel de embarcações, estação da costa e um servidor de e-mail presente na Internet. Os resultados dos testes experimentais realizados em ambiente controlado mostram que os objetivos do trabalho foram alcançados. O serviço de e-mail assente sobre a arquitetura DTN e adaptado ao cenário de comunicações marítimo foi testado em diferentes contextos, e em todos eles, as experiências tiveram resultados positivos.
Resumo:
Face à estagnação da tecnologia uniprocessador registada na passada década, aos principais fabricantes de microprocessadores encontraram na tecnologia multi-core a resposta `as crescentes necessidades de processamento do mercado. Durante anos, os desenvolvedores de software viram as suas aplicações acompanhar os ganhos de performance conferidos por cada nova geração de processadores sequenciais, mas `a medida que a capacidade de processamento escala em função do número de processadores, a computação sequencial tem de ser decomposta em várias partes concorrentes que possam executar em paralelo, para que possam utilizar as unidades de processamento adicionais e completar mais rapidamente. A programação paralela implica um paradigma completamente distinto da programação sequencial. Ao contrário dos computadores sequenciais tipificados no modelo de Von Neumann, a heterogeneidade de arquiteturas paralelas requer modelos de programação paralela que abstraiam os programadores dos detalhes da arquitectura e simplifiquem o desenvolvimento de aplicações concorrentes. Os modelos de programação paralela mais populares incitam os programadores a identificar instruções concorrentes na sua lógica de programação, e a especificá-las sob a forma de tarefas que possam ser atribuídas a processadores distintos para executarem em simultâneo. Estas tarefas são tipicamente lançadas durante a execução, e atribuídas aos processadores pelo motor de execução subjacente. Como os requisitos de processamento costumam ser variáveis, e não são conhecidos a priori, o mapeamento de tarefas para processadores tem de ser determinado dinamicamente, em resposta a alterações imprevisíveis dos requisitos de execução. `A medida que o volume da computação cresce, torna-se cada vez menos viável garantir as suas restrições temporais em plataformas uniprocessador. Enquanto os sistemas de tempo real se começam a adaptar ao paradigma de computação paralela, há uma crescente aposta em integrar execuções de tempo real com aplicações interativas no mesmo hardware, num mundo em que a tecnologia se torna cada vez mais pequena, leve, ubíqua, e portável. Esta integração requer soluções de escalonamento que simultaneamente garantam os requisitos temporais das tarefas de tempo real e mantenham um nível aceitável de QoS para as restantes execuções. Para tal, torna-se imperativo que as aplicações de tempo real paralelizem, de forma a minimizar os seus tempos de resposta e maximizar a utilização dos recursos de processamento. Isto introduz uma nova dimensão ao problema do escalonamento, que tem de responder de forma correcta a novos requisitos de execução imprevisíveis e rapidamente conjeturar o mapeamento de tarefas que melhor beneficie os critérios de performance do sistema. A técnica de escalonamento baseado em servidores permite reservar uma fração da capacidade de processamento para a execução de tarefas de tempo real, e assegurar que os efeitos de latência na sua execução não afectam as reservas estipuladas para outras execuções. No caso de tarefas escalonadas pelo tempo de execução máximo, ou tarefas com tempos de execução variáveis, torna-se provável que a largura de banda estipulada não seja consumida por completo. Para melhorar a utilização do sistema, os algoritmos de partilha de largura de banda (capacity-sharing) doam a capacidade não utilizada para a execução de outras tarefas, mantendo as garantias de isolamento entre servidores. Com eficiência comprovada em termos de espaço, tempo, e comunicação, o mecanismo de work-stealing tem vindo a ganhar popularidade como metodologia para o escalonamento de tarefas com paralelismo dinâmico e irregular. O algoritmo p-CSWS combina escalonamento baseado em servidores com capacity-sharing e work-stealing para cobrir as necessidades de escalonamento dos sistemas abertos de tempo real. Enquanto o escalonamento em servidores permite partilhar os recursos de processamento sem interferências a nível dos atrasos, uma nova política de work-stealing que opera sobre o mecanismo de capacity-sharing aplica uma exploração de paralelismo que melhora os tempos de resposta das aplicações e melhora a utilização do sistema. Esta tese propõe uma implementação do algoritmo p-CSWS para o Linux. Em concordância com a estrutura modular do escalonador do Linux, ´e definida uma nova classe de escalonamento que visa avaliar a aplicabilidade da heurística p-CSWS em circunstâncias reais. Ultrapassados os obstáculos intrínsecos `a programação da kernel do Linux, os extensos testes experimentais provam que o p-CSWS ´e mais do que um conceito teórico atrativo, e que a exploração heurística de paralelismo proposta pelo algoritmo beneficia os tempos de resposta das aplicações de tempo real, bem como a performance e eficiência da plataforma multiprocessador.
Resumo:
As novas tecnologias de informação e comunicação vêm introduzir novas abordagens e orientações nas relações das pessoas no mundo global, ao mesmo tempo que vêm redefinir paradigmas diversos em várias áreas disciplinares, nomeadamente nas áreas da saúde e da educação. A massificação das tecnologias vem assim aproximar a informação e o conhecimento das pessoas e a sua utilização no apoio aos processos de ensino e de aprendizagem dos alunos com necessidades educativas especiais e dificuldades de aprendizagem específicas tem vindo a ser discutida cada vez mais com uma maior relevância. Pretende-se através da presente dissertação contribuir com soluções que apoiem a desmaterialização dos processos e desburocratização dos relacionamentos entres os diversos intervenientes num processo de terapia de uma criança. Apesar de poder ser extensível a outros cenários, o projeto desenvolvido aplica-se ao caso concreto de crianças com necessidades educativas especiais e dificuldades de aprendizagem específicas, motivadas por dificuldades de perceção visual, que obrigam, além da adoção de programas de treino, como jogos interativos, a um acompanhamento integrado de todos os intervenientes na sua terapia: terapeutas, professores, pais e educadores, assistentes sociais entre outros, tornando-se fundamental a utilização de uma plataforma universal que permita a troca e sistematização de informações. Inicialmente foi necessário um enquadramento desta temática por via da leitura, pesquisa e reuniões com elementos ligados a diferentes áreas que intervém no tratamento de necessidades educativas especiais. Depois de uma pesquisa bibliográfica inicial sobre as dimensões a explorar, recolheu-se informação sobre estudos e projetos desenvolvidos para apoiar esta área, e desenvolveu-se um projeto destinado a contribuir para o trabalho positivo de todos os profissionais que se dedicam à terapia/tratamento das crianças com necessidades educativas especiais, particularmente derivadas de dificuldades de perceção visual. Posteriormente, realizou-se a avaliação do protótipo de forma a validar o real contributo do sistema na melhoria da comunicação e partilha de informação entre todos os intervenientes no processo de terapia de crianças com necessidades educativas especiais e da utilização das tecnologias interativas no treino da perceção visual. Com vista a uma futura implementação de um recurso educativo deste âmbito, foram também recolhidos os pontos negativos e sugestões de melhoria a incorporar. Em suma, este trabalho valida os contributos das TIC, e deste sistema em particular, na relação dos intervenientes num processo de terapia interdisciplinar e no treino da perceção visual.