972 resultados para Testes : Software
Resumo:
Considering the transition from industrial society to information society, we realize that the digital training that is addressed is currently insufficient to navigate within a digitized reality. As proposed to minimize this problem, this paper assesses, validates and develops the software RoboEduc to work with educational robotics with the main differential programming of robotic devices in levels, considering the specifics of reality training . One of the emphases of this work isthe presentation of materials and procedures involving the development, analysis and evolution of this software. For validation of usability tests were performed, based on analysis of these tests was developed version 4.0 of RoboEduc
Resumo:
E-learning, which refers to the use of Internet-related technologies to improve knowledge and learning, has emerged as a complementary form of education, bringing advantages such as increased accessibility to information, personalized learning, democratization of education and ease of update, distribution and standardization of the content. In this sense, this paper aims to develop a tool, named ISE-SPL, whose purpose is the automatic generation of E-learning systems for medical education, making use of concepts of Software Product Lines. It consists of an innovative methodology for medical education that aims to assist professors of healthcare in their teaching through the use of educational technologies, all based on computing applied to healthcare (Informatics in Health). The tests performed to validate the ISE-SPL were divided into two stages: the first was made by using a software analysis tool similar to ISE-SPL, called SPLOT and the second was performed through usability questionnaires to healthcare professors who used ISESPL. Both tests showed positive results, proving it to be an efficient tool for generation of E-learning software and useful for professors in healthcare
Resumo:
Formal methods and software testing are tools to obtain and control software quality. When used together, they provide mechanisms for software specification, verification and error detection. Even though formal methods allow software to be mathematically verified, they are not enough to assure that a system is free of faults, thus, software testing techniques are necessary to complement the process of verification and validation of a system. Model Based Testing techniques allow tests to be generated from other software artifacts such as specifications and abstract models. Using formal specifications as basis for test creation, we can generate better quality tests, because these specifications are usually precise and free of ambiguity. Fernanda Souza (2009) proposed a method to define test cases from B Method specifications. This method used information from the machine s invariant and the operation s precondition to define positive and negative test cases for an operation, using equivalent class partitioning and boundary value analysis based techniques. However, the method proposed in 2009 was not automated and had conceptual deficiencies like, for instance, it did not fit in a well defined coverage criteria classification. We started our work with a case study that applied the method in an example of B specification from the industry. Based in this case study we ve obtained subsidies to improve it. In our work we evolved the proposed method, rewriting it and adding characteristics to make it compatible with a test classification used by the community. We also improved the method to support specifications structured in different components, to use information from the operation s behavior on the test case generation process and to use new coverage criterias. Besides, we have implemented a tool to automate the method and we have submitted it to more complex case studies
Resumo:
Automation has become increasingly necessary during the software test process due to the high cost and time associated with such activity. Some tools have been proposed to automate the execution of Acceptance Tests in Web applications. However, many of them have important limitations such as the strong dependence on the structure of the HTML pages and the need of manual valuing of the test cases. In this work, we present a language for specifying acceptance test scenarios for Web applications called IFL4TCG and a tool that allows the generation of test cases from these scenarios. The proposed language supports the criterion of Equivalence Classes Partition and the tool allows the generation of test cases that meet different combination strategies (i.e., Each-Choice, Base-Choice and All Combinations). In order to evaluate the effectiveness of the proposed solution, we used the language and the associated tool for designing and executing Acceptance Tests on a module of Sistema Unificado de Administração Pública (SUAP) of Instituto Federal Rio Grande do Norte (IFRN). Four Systems Analysts and one Computer Technician, which work as developers of the that system, participated in the evaluation. Preliminary results showed that IFL4TCG can actually help to detect defects in Web applications
Uma abordagem para a verificação do comportamento excepcional a partir de regras de designe e testes
Resumo:
Checking the conformity between implementation and design rules in a system is an important activity to try to ensure that no degradation occurs between architectural patterns defined for the system and what is actually implemented in the source code. Especially in the case of systems which require a high level of reliability is important to define specific design rules for exceptional behavior. Such rules describe how exceptions should flow through the system by defining what elements are responsible for catching exceptions thrown by other system elements. However, current approaches to automatically check design rules do not provide suitable mechanisms to define and verify design rules related to the exception handling policy of applications. This paper proposes a practical approach to preserve the exceptional behavior of an application or family of applications, based on the definition and runtime automatic checking of design rules for exception handling of systems developed in Java or AspectJ. To support this approach was developed, in the context of this work, a tool called VITTAE (Verification and Information Tool to Analyze Exceptions) that extends the JUnit framework and allows automating test activities to exceptional design rules. We conducted a case study with the primary objective of evaluating the effectiveness of the proposed approach on a software product line. Besides this, an experiment was conducted that aimed to realize a comparative analysis between the proposed approach and an approach based on a tool called JUnitE, which also proposes to test the exception handling code using JUnit tests. The results showed how the exception handling design rules evolve along different versions of a system and that VITTAE can aid in the detection of defects in exception handling code
Resumo:
There is a growing interest of the Computer Science education community for including testing concepts on introductory programming courses. Aiming at contributing to this issue, we introduce POPT, a Problem-Oriented Programming and Testing approach for Introductory Programming Courses. POPT main goal is to improve the traditional method of teaching introductory programming that concentrates mainly on implementation and neglects testing. POPT extends POP (Problem Oriented Programing) methodology proposed on the PhD Thesis of Andrea Mendonça (UFCG). In both methodologies POPT and POP, students skills in dealing with ill-defined problems must be developed since the first programming courses. In POPT however, students are stimulated to clarify ill-defined problem specifications, guided by de definition of test cases (in a table-like manner). This paper presents POPT, and TestBoot a tool developed to support the methodology. In order to evaluate the approach a case study and a controlled experiment (which adopted the Latin Square design) were performed. In an Introductory Programming course of Computer Science and Software Engineering Graduation Programs at the Federal University of Rio Grande do Norte, Brazil. The study results have shown that, when compared to a Blind Testing approach, POPT stimulates the implementation of programs of better external quality the first program version submitted by POPT students passed in twice the number of test cases (professor-defined ones) when compared to non-POPT students. Moreover, POPT students submitted fewer program versions and spent more time to submit the first version to the automatic evaluation system, which lead us to think that POPT students are stimulated to think better about the solution they are implementing. The controlled experiment confirmed the influence of the proposed methodology on the quality of the code developed by POPT students
Resumo:
The work proposed by Cleverton Hentz (2010) presented an approach to define tests from the formal description of a program s input. Since some programs, such as compilers, may have their inputs formalized through grammars, it is common to use context-free grammars to specify the set of its valid entries. In the original work the author developed a tool that automatically generates tests for compilers. In the present work we identify types of problems in various areas where grammars are used to describe them , for example, to specify software configurations, which are potential situations to use LGen. In addition, we conducted case studies with grammars of different domains and from these studies it was possible to evaluate the behavior and performance of LGen during the generation of sentences, evaluating aspects such as execution time, number of generated sentences and satisfaction of coverage criteria available in LGen
Resumo:
IEEE 1451 is Standard to connect transduscers through a communication network. This article describes a supervisory system implementaion according to IEEE 1451 Standard using Java. This software, named NCAP, may be used in several industrial applications, besides making feasible to obtain TEDS as a report or by Internet. NCAP communicates with transduscer module through RS232 Interface and was testes in industrial automation processes. © 2009 IEEE.
Resumo:
Pós-graduação em Ciência da Computação - IBILCE
Resumo:
Análise de relações ordinais nos quais o responder estaria sob controle de propriedades relacionais do tipo primeiro, segundo, terceiro e assim por diante, a partir do paradigma de equivalência, constitui uma importante forma de compreender o comportamento verbal (sintaxe). Cinco estudos buscaram avaliar a emergência de novas sentenças com três ou quatro palavras (artigos, substantivos, adjetivos ou verbos e advérbios), com base nas posições ocupadas pelas mesmas em cada sentença ensinada independentemente. Participaram do Estudo 1 cinco crianças da pré-escola. Todos os participantes foram submetidos a procedimentos de ensino com três palavras através de emparelhamento de acordo com o modelo, testes de equivalência, treino por encadeamento de respostas, testes de produção de seqüências, conectividade e testes de leitura com compreensão. No Estudo 2, outras cinco crianças do ensino fundamental foram expostas aos mesmos procedimentos de ensino e testes, com quatro palavras. No Estudo 3, quatro crianças eram submetidas ao procedimento por encadeamento, testes de produção de seqüências, conectividade e de leitura com compreensão com quatro palavras. No Estudo 4 outras quatro crianças com história de fracasso escolar foram submetidas ao mesmo procedimento de ensino e testes dos Estudos 1 e 2, com quatro palavras. No Estudo 5 três outras crianças também com história de fracasso escolar foram submetidas ao mesmo procedimento adotado no Estudo 3 com quatro palavras. Os participantes não tinham leitura fluente de frases, mas liam palavras isoladamente. As sessões experimentais ocorreram numa sala da escola freqüentada pelas crianças. Um microcomputador forneceu suporte ao estudo e um software específico exerceu o controle e registro dos dados comportamentais. Utilizaram-se três conjuntos de estímulos: A (desenhos), B (palavras maiúsculas) e C (palavras minúsculas), para ensinar as relações condicionais AB e AC e testes BC/CB. No treino por encadeamento eram usadas três sentenças diferentes. Na primeira tentativa, a palavra UM, por exemplo, era apresentada na área de escolha. Um toque sobre a palavra produzia como conseqüência seu deslocamento para a área de construção na parte superior da tela, uma animação gráfica era apresentada acompanhada de um som muito bem, legal, certo. Em seguida, duas palavras eram apresentadas 10 simultaneamente na tela e o participante deveria tocar em uma delas e depois, na outra. Caso as palavras fossem ordenadas corretamente, a mesma conseqüência anterior era apresentada, e a mesma configuração de palavras era reapresentada em posições diferentes na área de escolha. Caso a resposta fosse diferente da programada pela experimentadora, produzia um escurecimento na tela por 3s e uma nova configuração de palavras era apresentada, lado a lado na área de escolha. Após o ensino da linha de base, testes de produção de seqüências e de conectividade eram aplicados para verificar a emergência de seis novas sentenças (exceto Estudo 1), a partir da recombinação das palavras ensinadas anteriormente. Finalmente, um teste de compreensão de leitura com novas frases era apresentado aos participantes. Por exemplo, na presença de uma figura, três sentenças diferentes em letras maiúsculas eram apresentadas e o participante deveria selecionar qual a sentença correta. Em todos os estudos, os participantes alcançaram o critério de acerto, três vezes consecutivas, sem erro, embora alguns tenham precisado de re-exposições. No Estudo 1 e 2 todos os participantes responderam consistentemente aos testes e leram as novas sentenças fluentemente e com compreensão. No Estudo 3, um participante construiu as seis novas sentenças prontamente. Nenhum participante leu com compreensão aos testes finais de leitura. No Estudo 4, três participantes construíram duas novas sentenças prontamente e um participante não respondeu aos testes de conectividade. Dois participantes responderam aos testes de leitura com compreensão. No Estudo 5 dois participantes construíram quatro novas sentenças prontamente. Nos Estudos 3 e 5 os participantes não responderam aos testes de nomeação oral. Estes resultados demonstraram a emergência de novas sentenças, sem qualquer treino adicional, a partir do ensino com três sentenças independentes. Os resultados dos testes de leitura com compreensão mostraram uma coerência com o paradigma de equivalência. Conclui-se que os estímulos utilizados eram funcionalmente equivalentes e exerceram ainda funções ordinais pela posição que cada um ocupou nas sentenças.
Resumo:
Descreve a implementação de um software de reconhecimento de voz para o Português Brasileiro. Dentre os objetivos do trabalho tem-se a construção de um sistema de voz contínua para grandes vocabulários, apto a ser usado em aplicações em tempo-real. São apresentados os principais conceitos e características de tais sistemas, além de todos os passos necessários para construção. Como parte desse trabalho foram produzidos e disponibilizados vários recursos: modelos acústicos e de linguagem, novos corpora de voz e texto. O corpus de texto vem sendo construído através da extração e formatação automática de textos de jornais na Internet. Além disso, foram produzidos dois corpora de voz, um baseado em audiobooks e outro produzido especificamente para simular testes em tempo-real. O trabalho também propõe a utilização de técnicas de adaptação de locutor para resolução de problemas de descasamento acústico entre corpora de voz. Por último, é apresentada uma interface de programação de aplicativos que busca facilitar a utilização do decodificador Julius. Testes de desempenho são apresentados, comparando os sistemas desenvolvidos e um software comercial.
Resumo:
Devido não ser comum o estudo de sistemas de potência em plantas reais como usinas hidrelétricas por causa dos riscos e custos que envolvem sua operação, dá-se preferência pela realização computacional de modelos matemáticos desse tipo de planta na resolução de problemas, desenvolvimento de novas tecnologias e formação de recursos humanos. No entanto, modelos realizados computacionalmente não proveem a experiência, visual, auditiva e tátil que um modelo físico real pode oferecer. Portanto, neste trabalho, apresenta-se a descrição e a modelagem de um sistema de geração em escala reduzida de 10kVA, que é um sistema físico real, composto por um motor CC, um gerador síncrono e transformadores, chamado também de sistema micromáquina, o qual faz parte da infraestrutura do Laboratório de Engenharia Elétrica da UFPA. Para este sistema, por intermédio deste trabalho de mestrado e do trabalho de mestrado de Moraes (2011), foram desenvolvido subsistemas eletrônicos e computacionais de acionamento, automação e controle para operá-lo de forma segura resultando em uma excelente plataforma didática para dar suporte às pesquisas em dinâmica e controle de sistemas de potência, bem como o desenvolvimento de trabalhos acadêmicos e de ensino. Nesse mesmo contexto, é apresentada uma proposta de técnica de emulação de turbina hidráulica, tendo como base o controle de potência aplicado ao motor CC do sistema micromáquina. Tal técnica foi desenvolvida principalmente com o propósito de dar suporte ao estudo e desenvolvimento de técnicas de regulação de velocidade de turbinas hidráulicas. Consequentemente, também é apresenta uma proposta de um regulador de velocidade digital para turbinas hidráulicas baseado na estrutura canônica RST de controle digital, cujos parâmetros são projetados por duas técnicas de projeto estudadas neste trabalho: o método de alocação polinomial de polos e o projeto de compensadores por atraso de fase pelo método de resposta em frequência para sistemas discretos. Logo para comprovar a eficácia das ferramentas de hardware, software e teóricas desenvolvidas neste trabalho, resultados de experimentos realizados no sistema micromáquina são apresentados e analisados.
Resumo:
Esta dissertação tem como objetivo principal apresentar a implementação de um software-modem ADSL totalmente escrito em Java, utilizando o framework Ptolemy II, denominado de Hermes (de "A Handy Experimental Software Modem System"). Um software-modem é útil em ocasiões onde se precisem executar testes e simulações de sistemas de comunicação com um número grande de modens e quando os parâmetros desses sistemas precisem ser modificados com um alto grau de liberdade. Além disso, um software-modem possui características que tornam mais fácil a tarefa de acrescentar, eliminar, validar e analisar funções e algoritmos de processamento de sinais e de telecomunicações. Testes e simulações foram realizados para analisar a funcionalidade do Hermes, utilizando, inclusive, o Tracespan, um equipamento para análise não-intrusiva de redes DSL. A partir dos resultados obtidos em conjunto com o Tracespan, foi possível validar com sucesso as funções do Hermes.
Resumo:
Este trabalho apresenta a implementação em software da codificação de canal utilizada no padrão ADSL. A teoria da codificação de canal e descrita, bem como a codificação de canal implementada no Software Modem ADSL utilizando o ambiente de desenvolvimento Ptolemy II. A implementação de um modelo de ruído impulsivo também é apresentada. Para garantir que a implementação obedeça o padrão do ADSL, testes utilizando o analisador de sistemas DSL TraceSpan são descritos. O trabalho apresenta ainda um exemplo de aplicação do Software Modem ADSL, caracterizado por um estudo de caso sobre os efeitos do ruído impulsivo na transmissão de vídeo, analisando o impacto de alguns parâmetros da codificação de canal na correção dos erros.
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)