1000 resultados para Requisitos : Software
Resumo:
A informação contabilística constitui um dos pilares fundamentais para a formação de juízos e tomada de decisões empresariais e, para isso, deve cumprir os requisitos de qualidade, objectividade, transparência, rigor, responsabilidade e independência. Para o efeito, a informação é elaborada com base em políticas e critérios contabilísticos, conceitos e pressupostos subjacentes à “Estrutura Conceptual” dos normativos emitidos por organismos nacionais e internacionais, e em princípios sustentados no “Governo das Sociedades” e respectivas recomendações, considerando as necessidades dos seus utilizadores. O presente estudo tem por objectivo explorar a relação entre a Informação Financeira Divulgada e o Modelo de Governação das Sociedades e fornecer uma melhor e mais profunda compreensão das características das sociedades que influenciam a divulgação. Neste estudo, foi utilizada uma amostra de empresas portuguesas não financeiras, emitentes de acções, que se encontram admitidas a negociação no mercado de cotações oficiais da New York Stock Exchange, adiante designada por NYSE Euronext Lisbon, no período de 2010 a 2012. Os elementos foram recolhidos através da leitura e análise dos Relatórios e Contas Anuais publicados e por consulta da base de dados DataStream. Os dados obtidos foram analisados através de modelos de regressão linear múltipla, considerando o modelo de dados em painel, tendo sido utilizado o programa de estatística Gnu Regression, Econometrics and Time- Series Library (GRETL), versão 1.9.92 (Sep 20, 2014), embora, para a análise das correlações, tenha sido utilizado, também, o programa estatístico Statistical Package for the Social Sciences, adiante denominado IBM SPSS Statistics, versão 19. A análise dos resultados indica que as principais determinantes subjacentes à divulgação relacionada com o índice de cumprimento sobre o Governo das Sociedades são as variáveis explicativas relacionadas com: (i) dimensão da empresa; (ii) endividamento; (iii) concentração accionista; (iv) negociabilidade; (v) percentagem de acções detidas pelos administradores executivos; (vi) rendibilidade do investimento total; e (vii) remuneração dos administradores não executivos. Os testes efectuados mostram que os resultados alcançados são robustos para modelar especificações e problemas de existência de multicolinearidade. O software utiliza o método de Arellano (2004) com a finalidade de corrigir o problema de possibilidade de existência de heteroscedasticidade e de autocorrelação. Nesta base, verificaram-se todas as situações que poderiam criar obstáculos e causar enviesamento nos estimadores e definições das variáveis. Relativamente ao índice global de divulgação dos riscos e incertezas, concluiu-se que é provavelmente determinado por diferentes variáveis. Esta investigação enriquece a discussão sobre as relações entre a divulgação da informação e a estrutura do Governo das Sociedades. Assim, o estudo pode ser útil para accionistas, administradores, credores e outros investidores, quanto à reflexão da adequação da informação divulgada nos relatórios e contas anuais, com a finalidade da tomada de decisões idóneas e fundamentadas. Porém, é essencial que os reguladores incentivem as empresas a adequarem melhor as práticas de governo e a criarem mais mecanismos de forma a alcançar um maior nível de independência e uma adopção mais ajustada das recomendações sobre o Governo das Sociedades.
Resumo:
A presente dissertação tem como objectivo descrever o trabalho desenvolvido sobre o projecto iCOPE, uma plataforma dedicada ao auxilio do processo psicoterapêutico para pessoas com perturbações psicóticas. A sua concepção e motivada pela necessidade de fornecer um meio psicoterapêutico com base na portabilidade dos dispositivos móveis. O desenvolvimento foi conseguido através de uma colaboração multidisciplinar, orientada por especialistas de terapia ocupacional, e pela engenharia de software. O iCOPE é um sistema centralizado, no qual o progresso de um paciente é registado e monitorizado através de outra aplicação, por um terapeuta designado. Esta filosofia levou à criação de uma API baseada em REST, capaz de comunicar com uma base de dados. A construção da API concretizou-se com recurso a linguagem PHP, aliada a micro-framework Slim. O objectivo desta API passa não só pela necessidade de fornecer um sistema acessível, mas também com a ambição de conceber uma plataforma com um potencial escalável e expansível, para o caso de ser necessário implementar novas funcionalidades futuras (future-proof). O autor desta dissertação foi responsável pelo levantamento de requisitos, o desenvolvimento da aplicação móvel, o desenvolvimento colaborativo do modelo de dados e base de dados e da interface da API de comunicação. No fim do desenvolvimento foi feita uma apreciação funcional pelos utilizadores alvo, que realizaram uma avaliação sobre a utilização e integração da aplicação no seu tratamento. Face aos resultados obtidos foram tiradas conclusões sobre o futuro desenvolvimento da aplicação e que outros aspectos poderiam ser integrados para efectivamente chegar a mais pacientes.
Resumo:
Nos últimos anos tem-se verificado a constante evolução dos mercados em plataformas na Internet como forma de melhoria não só dos serviços prestados, mas também para o aumento de vendas de produtos e respetiva internacionalização dos mesmos. Este aumento da procura por este tipo de softwares, assim como a constante evolução e atualização dos mesmos tem contribuído para que estas aplicações evoluam em termos de funcionalidades e complexidade. Isto contribui cada vez para a dificuldade de formar equipas capazes de manter e desenvolver estes sistemas sem que comprometa em grandes custos para as organizações. Neste sentido surgiram diversas ferramentas que permitem criar soluções pré desenvolvidas de aplicações na Internet denominadas de "E-commerce applications". Estas plataformas, apesar do utilizador não ter obrigatoriamente que deter conhecimentos de programação para proceder à sua instalação, são bastante restritas tanto aos serviços que podem ser usados, e na sua escalabilidade, visto que normalmente correm em servidores específicos e por vezes as configurações necessárias para instalação tornam-se bastante complexas de ser efetuadas. Pretende-se no âmbito desta dissertação de mestrado propor um modelo de uma arquitetura de um sistema baseado em mecanismos MDA para a área de retalho, particularmente em ambientes de e-commerce. Serão inicialmente sistematizados os principais tipos de ecommerce numa perspetiva de evolução histórica. Será igualmente enquadrado o MDA no desenvolvimento de um sistema de e-commerce. Neste sentido, serão equacionadas as diferenças entre o modelo típico de desenvolvimento de software e o desenvolvimento de software orientado pelas metodologias do MDA. No processo de especificação e desenvolvimento do modelo proposto será realizada uma análise de requisitos, assim como, a proposta do modelo da arquitetura de um sistema baseado em mecanismos MDA, tendo como orientação os requisitos e arquitetura definida na fase de análise. Finalmente no sentido de analisar o resultado esperado para um sistema orientado por metodologias definidas por MDA, serão realizado alguns testes no sistema desenvolvido de forma a analisar o seu desempenho e validar a sua adequabilidade no âmbito do processo de desenvolvimento de sistemas e-commerce
Resumo:
A integração contínua é uma prática no desenvolvimento de software que já existe há algum tempo mas ainda não é muito conhecida nem usada. Esta prática no desenvolvimento de software surgiu com a programação extrema e tem evoluído ao longo dos últimos anos, adaptando-se às novas tecnologias. O estudo aqui apresentado pretende essencialmente mostrar a real importância e o valor acrescido que a integração contínua pode trazer a um projeto de desenvolvimento de software. O trabalho aqui exposto surge no âmbito de um projeto interno, realizado pelo autor na empresa Konkconsulting, cuja finalidade se prende com o conhecimento mais aprofundado da integração contínua e com o levantamento das necessidades e criação de soluções, de modo a conseguir a sua utilização nos produtos que irão ser desenvolvidos pela empresa. Nesta dissertação, é proposto um conjunto de ferramentas para responder às necessidades imediatas da empresa na implementação de integração contínua num dos seus projetos. Estas ferramentas devem ser de simples e de fácil utilização, de modo a ajudar os programadores durante os desenvolvimentos e responder às necessidades da utilização da integração contínua em um projeto a ser desenvolvido pela empresa, mas ao mesmo tempo, podendo ser facilmente incorporadas em futuros projetos.
Resumo:
A utilização de equipamentos robóticos para o processo de soldadura por arco elétrico teve um forte crescimento nas décadas de 80 e 90, altura em que o custo e fiabilidade da tecnologia passou a permitir a integração de robôs em linhas de produção ou em células de fabrico. Depressa cresceram as exigências de uma produção com qualidade repetitiva e facilmente ajustável, e as restrições ao uso de processos manuais ou de tecnologias com pouca flexibilidade. Desde o início do século XXI que a renovação de uma estação de fabrico de peças soldadas para produção em série, especialmente no setor automóvel, parece forçada à integração de robôs industriais, que assim se tornaram símbolos de produtividade. A KAMAZ encontra-se atualmente a renovar alguns dos seus processos de fabrico, incluindo as áreas de soldadura por arco ou cladding. Esta Dissertação aborda o trabalho elaborado, depois de contratualizada com a ABB Rússia a instalação de novas células de fabrico robotizado nesta empresa. Este projeto tem início com o levantamento das necessidades, a verificação do processo existente, e a procura da solução tecnológica que se adapte a essas condições e cumpra os requisitos acordados. São realizadas modelações e simulações off-line em 3D, usando o software RobotStudio da ABB, que permitiram testar cada solução e analisar a sua adequação e viabilidade. Para maior garantia de se obter a qualidade esperada na fusão e deposição do material por processo com arco elétrico revestido a gás, foram realizados testes reais utilizando equipamento robótico em condições baseadas nos testes feitos no ambiente virtual. Por último, são ajustadas as localizações dos postos de trabalho ao layout existente e é feito o balanceamento do tempo de operação manual com o tempo do processo robotizado. Este projeto de Tese termina com a aceitação do cliente para a solução encontrada e para os resultados dos testes reais de ambos os processos.
Resumo:
Relatório para obtenção do Grau de Mestre em Ensino da Física e da Química
Resumo:
Actualmente e cada vez mais, são concebidos e utilizados programas de cálculo automático de Engenharia na realização de projectos de edifícios, que proporcionam aos engenheiros uma possibilidade avançada e rápida de execução, simulação e análise de edifícios para estruturas complexas e de elevada dimensão. Contudo, será necessário que os resultados deverão ser fiáveis de modo a não existirem consequências no comportamento real da estrutura a longo prazo. O presente relatório de estágio, refere-se à verificação aos estados limites de utilização (tensões, fendilhação e deformação) segundo o Eurocódigo 2, de uma estrutura porticada em betão armado, nomeadamente de um pórtico central pertencente a essa mesma estrutura recorrendo ao programa de cálculo automático da Autodesk o Robot Structural Analysis Professional 2014. O objectivo principal do presente trabalho consiste na comparação de resultados referente aos estados limites últimos e de utilização, pelos diferentes módulos de dimensionamento Required e Provided Reinforcement presentes no programa Robot. É destacado no final do relatório, considerando uma disposição de armadura optada analiticamente para o pórtico, uma análise comparativa de resultados referente aos estados limites de utilização entre o comando Typical Reinforcement do módulo Provided Reinforcement e por expressões analíticas. Refere-se contudo que, o procedimento do método analítico teve como base de cálculo uma aplicação desenvolvida para a verificação de elementos de betão armado aos estados limites de utilização segundo o Eurocódigo 2, com o nome de XD-Conserv tendo sido também comparado os resultados finais do mesmo.
Resumo:
Um Sistema de Informação consiste num sistema capaz de armazenar, organizar e estruturar dados para ajudar a responder às necessidades das empresas, passando também pela capacidade de resposta às questões diárias das empresas. Assim, um Sistema de Informação pode ser definido como o software que ajuda a organizar e analisar dados, tendo como objetivo fornecer informação útil na altura certa para que possa ser utilizada para a tomada de decisões ou para uma gestão mais eficiente dos diversos fluxos que uma empresa pode conter. Neste sentido, o projeto apresentado centra-se no desenho e construção de um Sistema de Informação capaz de gerir o negócio de uma empresa do setor alimentar, mais propriamente do setor da transformação de carnes. Foi desenvolvido em Oracle ADF, de forma a aproveitar as vantagens inerentes à tecnologia e ao desenvolvimento web. Sendo uma tecnologia relativamente nova no mercado e dominada por poucos, a sua utilização neste momento pode tornar-se uma grande vantagem. Para o desenvolvimento da aplicação foi realizado o levantamento e análise de requisitos, foi criada a base de dados capaz de suportar o funcionamento do software e desenvolvido um sistema de login, capaz de gerir as sessões de cada utilizador. Foi implementado um processo de introdução e edição de informação, nomeadamente o registo de entradas, transformações e saídas. Contemplou-se também uma secção com dados mestre da empresa com a possibilidade de inserção, atualização e/ou remoção. Além disso, foram incorporadas validações em todos os processos que são usados pelos utilizadores, de modo a evitar a existência de dados incoerentes ou duplicados. Relativamente à lógica de negócio, foi embutida na aplicação de forma a permitir consultar a informação de forma clara, rápida e em diversos lugares, reduzindo tempo e tarefas ao colaborador/utilizador, visto que os processos foram automatizados. Com a implementação deste Sistema de Informação, a empresa pode usufruir de um sistema integrado capaz de gerir e controlar todo o seu processo produtivo, reduzindo custos e desperdícios, aumentando a produtividade e eficiência.
Resumo:
A crescente evolução dos dispositivos contendo circuitos integrados, em especial os FPGAs (Field Programmable Logic Arrays) e atualmente os System on a chip (SoCs) baseados em FPGAs, juntamente com a evolução das ferramentas, tem deixado um espaço entre o lançamento e a produção de materiais didáticos que auxiliem os engenheiros no Co- Projecto de hardware/software a partir dessas tecnologias. Com o intuito de auxiliar na redução desse intervalo temporal, o presente trabalho apresenta o desenvolvimento de documentos (tutoriais) direcionados a duas tecnologias recentes: a ferramenta de desenvolvimento de hardware/software VIVADO; e o SoC Zynq-7000, Z-7010, ambos desenvolvidos pela Xilinx. Os documentos produzidos são baseados num projeto básico totalmente implementado em lógica programável e do mesmo projeto implementado através do processador programável embarcado, para que seja possível avaliar o fluxo de projeto da ferramenta para um projeto totalmente implementado em hardware e o fluxo de projeto para o mesmo projeto implementado numa estrutura de harware/software.
Resumo:
Computação gráfica um campo que tem vindo a crescer bastante nos últimos anos, desde áreas como cinematográficas, dos videojogos, da animação, o avanço tem sido tão grande que a semelhança com a realidade é cada vez maior. Praticamente hoje em dia todos os filmes têm efeitos gerados através de computação gráfica, até simples anúncios de televisão para não falar do realismo dos videojogos de hoje. Este estudo tem como objectivo mostrar duas alternativas no mundo da computação gráfica, como tal, vão ser usados dois programas, Blender e Unreal Engine. O cenário em questão será todo modelado de raiz e será o mesmo nos dois programas. Serão feitos vários renders ao cenário, em ambos os programas usando diferentes materiais, diferentes tipos de iluminação, em tempo real e não de forma a mostrar as várias alternativas possíveis.
Resumo:
Dissertação para obtenção do Grau de Mestre em Engenharia Informática
Resumo:
Electricity markets worldwide are complex and dynamic environments with very particular characteristics. These are the result of electricity markets’ restructuring and evolution into regional and continental scales, along with the constant changes brought by the increasing necessity for an adequate integration of renewable energy sources. The rising complexity and unpredictability in electricity markets has increased the need for the intervenient entities in foreseeing market behaviour. Market players and regulators are very interested in predicting the market’s behaviour. Market players need to understand the market behaviour and operation in order to maximize their profits, while market regulators need to test new rules and detect market inefficiencies before they are implemented. The growth of usage of simulation tools was driven by the need for understanding those mechanisms and how the involved players' interactions affect the markets' outcomes. Multi-agent based software is particularly well fitted to analyse dynamic and adaptive systems with complex interactions among its constituents, such as electricity markets. Several modelling tools directed to the study of restructured wholesale electricity markets have emerged. Still, they have a common limitation: the lack of interoperability between the various systems to allow the exchange of information and knowledge, to test different market models and to allow market players from different systems to interact in common market environments. This dissertation proposes the development and implementation of ontologies for semantic interoperability between multi-agent simulation platforms in the scope of electricity markets. The added value provided to these platforms is given by enabling them sharing their knowledge and market models with other agent societies, which provides the means for an actual improvement in current electricity markets studies and development. The proposed ontologies are implemented in MASCEM (Multi-Agent Simulator of Competitive Electricity Markets) and tested through the interaction between MASCEM agents and agents from other multi-agent based simulators. The implementation of the proposed ontologies has also required a complete restructuring of MASCEM’s architecture and multi-agent model, which is also presented in this dissertation. The results achieved in the case studies allow identifying the advantages of the novel architecture of MASCEM, and most importantly, the added value of using the proposed ontologies. They facilitate the integration of independent multi-agent simulators, by providing a way for communications to be understood by heterogeneous agents from the various systems.
Resumo:
Face à estagnação da tecnologia uniprocessador registada na passada década, aos principais fabricantes de microprocessadores encontraram na tecnologia multi-core a resposta `as crescentes necessidades de processamento do mercado. Durante anos, os desenvolvedores de software viram as suas aplicações acompanhar os ganhos de performance conferidos por cada nova geração de processadores sequenciais, mas `a medida que a capacidade de processamento escala em função do número de processadores, a computação sequencial tem de ser decomposta em várias partes concorrentes que possam executar em paralelo, para que possam utilizar as unidades de processamento adicionais e completar mais rapidamente. A programação paralela implica um paradigma completamente distinto da programação sequencial. Ao contrário dos computadores sequenciais tipificados no modelo de Von Neumann, a heterogeneidade de arquiteturas paralelas requer modelos de programação paralela que abstraiam os programadores dos detalhes da arquitectura e simplifiquem o desenvolvimento de aplicações concorrentes. Os modelos de programação paralela mais populares incitam os programadores a identificar instruções concorrentes na sua lógica de programação, e a especificá-las sob a forma de tarefas que possam ser atribuídas a processadores distintos para executarem em simultâneo. Estas tarefas são tipicamente lançadas durante a execução, e atribuídas aos processadores pelo motor de execução subjacente. Como os requisitos de processamento costumam ser variáveis, e não são conhecidos a priori, o mapeamento de tarefas para processadores tem de ser determinado dinamicamente, em resposta a alterações imprevisíveis dos requisitos de execução. `A medida que o volume da computação cresce, torna-se cada vez menos viável garantir as suas restrições temporais em plataformas uniprocessador. Enquanto os sistemas de tempo real se começam a adaptar ao paradigma de computação paralela, há uma crescente aposta em integrar execuções de tempo real com aplicações interativas no mesmo hardware, num mundo em que a tecnologia se torna cada vez mais pequena, leve, ubíqua, e portável. Esta integração requer soluções de escalonamento que simultaneamente garantam os requisitos temporais das tarefas de tempo real e mantenham um nível aceitável de QoS para as restantes execuções. Para tal, torna-se imperativo que as aplicações de tempo real paralelizem, de forma a minimizar os seus tempos de resposta e maximizar a utilização dos recursos de processamento. Isto introduz uma nova dimensão ao problema do escalonamento, que tem de responder de forma correcta a novos requisitos de execução imprevisíveis e rapidamente conjeturar o mapeamento de tarefas que melhor beneficie os critérios de performance do sistema. A técnica de escalonamento baseado em servidores permite reservar uma fração da capacidade de processamento para a execução de tarefas de tempo real, e assegurar que os efeitos de latência na sua execução não afectam as reservas estipuladas para outras execuções. No caso de tarefas escalonadas pelo tempo de execução máximo, ou tarefas com tempos de execução variáveis, torna-se provável que a largura de banda estipulada não seja consumida por completo. Para melhorar a utilização do sistema, os algoritmos de partilha de largura de banda (capacity-sharing) doam a capacidade não utilizada para a execução de outras tarefas, mantendo as garantias de isolamento entre servidores. Com eficiência comprovada em termos de espaço, tempo, e comunicação, o mecanismo de work-stealing tem vindo a ganhar popularidade como metodologia para o escalonamento de tarefas com paralelismo dinâmico e irregular. O algoritmo p-CSWS combina escalonamento baseado em servidores com capacity-sharing e work-stealing para cobrir as necessidades de escalonamento dos sistemas abertos de tempo real. Enquanto o escalonamento em servidores permite partilhar os recursos de processamento sem interferências a nível dos atrasos, uma nova política de work-stealing que opera sobre o mecanismo de capacity-sharing aplica uma exploração de paralelismo que melhora os tempos de resposta das aplicações e melhora a utilização do sistema. Esta tese propõe uma implementação do algoritmo p-CSWS para o Linux. Em concordância com a estrutura modular do escalonador do Linux, ´e definida uma nova classe de escalonamento que visa avaliar a aplicabilidade da heurística p-CSWS em circunstâncias reais. Ultrapassados os obstáculos intrínsecos `a programação da kernel do Linux, os extensos testes experimentais provam que o p-CSWS ´e mais do que um conceito teórico atrativo, e que a exploração heurística de paralelismo proposta pelo algoritmo beneficia os tempos de resposta das aplicações de tempo real, bem como a performance e eficiência da plataforma multiprocessador.
Resumo:
O software tem vindo a tornar-se uma parte importante de qualquer empresa, cobrindo várias áreas funcionais, tais como manufaturação, vendas ou recursos humanos. O facto de uma empresa possuir um software capaz de ligar todas ou a maior parte das suas áreas funcionais e de acomodar as suas regras de negócio permite que estas tenham acesso a dados em tempo real nos quais se podem basear para tomar decisões. Estes tipos de software podem ser categorizados como Enterprise resource planning (ERP). Tendo em conta que estes tipos de software têm um papel importante dentro de uma empresa, a aquisição dos mesmos é algo que deve ser bem estudado. As grandes empresas normalmente optam pela aquisição de soluções comerciais uma vez que estas tendem a ter mais funcionalidades, maior suporte e certificações. Os ERPs comerciais representam, no entanto, um esforço elevado para que a sua compra possa ser feita, o que limita a possibilidade de aquisição dos mesmos por parte de pequenas ou médias empresas. No entanto, tal como acontece com a maior parte dos tipos de software, existem alternativas open-source. Se nos colocássemos na posição de uma pequena empresa, a tentar iniciar o seu negócio em Portugal, que tipo de ERP seria suficiente para os nossos requisitos? Teríamos que optar por comprar uma solução comercial, ou uma solução open-source seria suficiente? E se optássemos por desenvolver uma solução à medida? Esta tese irá responder a estas questões focando-se apenas num dos componentes base de qualquer ERP, a gestão de entidades. O componente de gestão de entidades é responsável por gerir todas as entidades com as quais a empresa interage abrangindo colaboradores, clientes, fornecedores, etc. A nível de funcionalidades será feita uma comparação entre um ERP comercial e um ERP open-source. Como os ERPs tendem a ser soluções muito genéricas é comum que estes não implementem todos os requisitos de um negócio em particular, como tal os ERPs precisam de ser extensíveis e adaptáveis. Para perceber até que ponto a solução open-source é extensível será feita uma análise técnica ao seu código fonte e será feita uma implementação parcial de um gerador de ficheiros de auditoria requerido pela lei Portuguesa, o SAF-T (PT). Ao estudar e adaptar a solução open-source podemos especificar o que teria que ser desenvolvido para podermos criar uma solução à medida de raiz.
Resumo:
O presente relatório de estágio mostra-nos um percurso realizado no ano letivo 2014/2015, referente à Prática de Ensino Supervisionada no âmbito do Mestrado em Ensino de Música, ramo de Formação Musical. O mesmo não reflete única e exclusivamente a Prática de Ensino Supervisionada do ano transato mas sim, todo um percurso académico realizado em que foram efetuadas reflexões, tomadas decisões, criadas novas ideias pedagógicas, que num todo foi essencial para uma melhoria da prática pedagógica como também na construção de um ser mais crítico e investigativo. Este documento é composto por duas partes. Na primeira parte é apresentado o capítulo I e II, sendo o primeiro uma abordagem à instituição de ensino em que foi realizada a prática de ensino supervisionada, e o segundo, uma reflexão aprofundada da mesma. A segunda parte do relatório prende-se a um Projeto de Investigação realizado no decorrer do ano letivo 2014/2015, direcionado para as Novas Tecnologias de Informação e Comunicação na Educação em geral e na Educação no Ensino Vocacional da Música mais especificamente, “O software EarMaster como ferramenta pedagógica na disciplina de Formação Musical”, tentando perceber se este tipo de software informáticos poderão ser uma mais-valia para o estudo da disciplina da Formação Musical e se trará melhores resultados para o aluno aquando da sua utilização. A metodologia utilizada no projeto de investigação prende-se a uma lógica quantitativa e qualitativa. O estudo não é, de todo, conclusivo devido ao tamanho da amostra obtida, tendo alguns alunos optado por não utilizar o software EarMaster, formando assim um pequeno grupo de amostra não suficiente para obter os melhores resultados, ficando em aberto possíveis investigações sobre esta temática. Serão, as Novas Tecnologias de Informação uma mais-valia para a Educação no nosso país? Será possível a utilização destas na sala de aula, sem que sejam pensadas como algo para “entreter” o aluno por momentos?