948 resultados para Gerenciamento de configurações de software
Resumo:
Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)
Resumo:
Abstract – Background – The software effort estimation research area aims to improve the accuracy of this estimation in software projects and activities. Aims – This study describes the development and usage of a web application tocollect data generated from the Planning Poker estimation process and the analysis of the collected data to investigate the impact of revising previous estimates when conducting similar estimates in a Planning Poker context. Method – Software activities were estimated by Universidade Tecnológica Federal do Paraná (UTFPR) computer students, using Planning Poker, with and without revising previous similar activities, storing data regarding the decision-making process. And the collected data was used to investigate the impact that revising similar executed activities have in the software effort estimates' accuracy.Obtained Results – The UTFPR computer students were divided into 14 groups. Eight of them showed accuracy increase in more than half of their estimates. Three of them had almost the same accuracy in more than half of their estimates. And only three of them had loss of accuracy in more than half of their estimates. Conclusion – Reviewing the similar executed software activities, when using Planning Poker, led to more accurate software estimates in most cases, and, because of that, can improve the software development process.
Resumo:
Pós-graduação em Ciência da Computação - IBILCE
Resumo:
Uma linha de produtos de software (LPS), é um conjunto de produtos que partilham funcionalidades comuns, desenvolvidos de forma sistemática a partir de um conjunto de elementos de software base da LPS. As abordagens de desenvolvimento baseado em LPS revolucionaram a forma como as organizações realizam a engenharia de software. A obtenção de economias de escala, na concepção e distribuição de novos produtos, pela reutilização dos elementos de software base da LPS e instanciação dos variantes respectivos, é um dos principais benefícios na adopção desta abordagem. Numa LPS, a arquitectura de software de referência vai para além da dicotomia desenho/ codificação da arquitectura de software tradicional. A sua documentação, inclui a representação da arquitectura de software da LPS e respectivos pontos de variabilidade, bem como a descrição do processo para instanciação dos produtos. Numa pequena e média empresa (PME), os recursos humanos, técnicos e financeiros são escassos. A viabilidade da implementação de uma LPS adequa-se num contexto de redução de custos operacionais e eficiência do processo de produção dos produtos de software. O objectivo deste trabalho é o desenvolvimento e aplicação de uma metodologia para a gestão e implementação de uma LPS, adequada à realidade de uma PME. As principais contribuições do trabalho incluem: a) uma metodologia para a implementação e gestão de uma LPS adequada a uma PME, que prevê a definição da arquitectura de software da LPS com base num conjunto de produtos já existentes, b) a representação da arquitectura de software de uma LPS, suportado por modelos UML, estendidos através de um perfil UML, baseado em 3+1 perspectivas: dos requisitos, da implementação e dos componentes de execução, sendo que a vista (+1)ou “vista produtos” é uma instanciação das restantes três vistas no contexto particular da LPS ou de um produto, num determinado momento no tempo. A metodologia proposta foi aplicada à solução ARQUO™, uma solução real e em produção em diversas organizações.
Resumo:
Propõe diretrizes para a elaboração de uma metodologia de gestão dos projetos de software atualmente desenvolvidos pelas coordenações CODIS e CESAN no Centro de Informática da Câmara dos Deputados, de uma forma integrada. A gerência de projetos de software é atualmente um dos fatores mais importantes para a construção de produtos com maior qualidade, com o menor custo e no menor prazo. Uma metodologia de gerenciamento de projetos de software permite padronizar, sistematizar e formalizar esta atividade, trazendo inúmeros benefícios à organização.
Resumo:
A indústria automóvel é um meio competitivo onde cada segundo subaproveitado pode significar a perda de um cliente para a concorrência. Por conseguinte, a eliminação do desperdício poderá representar a linha ténue entre uma organização em sobrevivência e uma organização de excelência. O elevado ritmo de produção, a azáfama e os paradigmas fazem com que se desenvolva uma apatia face ao desperdício que cresce diante dos olhos de todos os colaboradores. Porém, neste projeto, detetaram-se dois alvos de melhoria. O primeiro, relativo à ausência de registo e controlo de alguns parâmetros nas fichas de registo de parâmetros, que propiciava variabilidade nos valores destes a cada produção, bem como uma inadequabilidade de algumas das fichas às diferentes configurações e software das máquinas; e o segundo alvo, referente ao sistema documental de difícil gestão e acesso, desorganizado e obsoleto que dificultava e prolongava a tarefa de troca de ferramenta. Para o primeiro caso, instalaram-se meios de controlo de parâmetros e inseriram-se os campos em falta nas fichas de registo de parâmetros, assim como se personalizaram as mesmas consoante as máquinas para uma utilização mais intuitiva. No segundo, procedeu-se à organização do sistema através de uma ação 5S e de gestão visual, bem como a algumas alterações de layout com o objetivo de alcançar uma diminuição do tempo desperdiçado nessa tarefa, e consequentemente, no tempo de setup.
Resumo:
Clusters de computadores são geralmente utilizados para se obter alto desempenho na execução de aplicações paralelas. Sua utilização tem aumentado significativamente ao longo dos anos e resulta hoje em uma presença de quase 60% entre as 500 máquinas mais rápidas do mundo. Embora a utilização de clusters seja bastante difundida, a tarefa de monitoramento de recursos dessas máquinas é considerada complexa. Essa complexidade advém do fato de existirem diferentes configurações de software e hardware que podem ser caracterizadas como cluster. Diferentes configurações acabam por fazer com que o administrador de um cluster necessite de mais de uma ferramenta de monitoramento para conseguir obter informações suficientes para uma tomada de decisão acerca de eventuais problemas que possam estar acontecendo no seu cluster. Outra situação que demonstra a complexidade da tarefa de monitoramento acontece quando o desenvolvedor de aplicações paralelas necessita de informações relativas ao ambiente de execução da sua aplicação para entender melhor o seu comportamento. A execução de aplicações paralelas em ambientes multi-cluster e grid juntamente com a necessidade de informações externas à aplicação é outra situação que necessita da tarefa de monitoramento. Em todas essas situações, verifica-se a existência de múltiplas fontes de dados independentes e que podem ter informações relacionadas ou complementares. O objetivo deste trabalho é propor um modelo de integração de dados que pode se adaptar a diferentes fontes de informação e gerar como resultado informações integradas que sejam passíveis de uma visualização conjunta por alguma ferramenta. Esse modelo é baseado na depuração offline de aplicações paralelas e é dividido em duas etapas: a coleta de dados e uma posterior integração das informações. Um protótipo baseado nesse modelo de integração é descrito neste trabalho Esse protótipo utiliza como fontes de informação as ferramentas de monitoramento de cluster Ganglia e Performance Co-Pilot, bibliotecas de rastreamento de aplicações DECK e MPI e uma instrumentação do Sistema operacional Linux para registrar as trocas de contexto de um conjunto de processos. Pajé é a ferramenta escolhida para a visualização integrada das informações. Os resultados do processo de integração de dados pelo protótipo apresentado neste trabalho são caracterizados em três tipos: depuração de aplicações DECK, depuração de aplicações MPI e monitoramento de cluster. Ao final do texto, são delineadas algumas conclusões e contribuições desse trabalho, assim como algumas sugestões de trabalhos futuros.
Resumo:
The work proposed by Cleverton Hentz (2010) presented an approach to define tests from the formal description of a program s input. Since some programs, such as compilers, may have their inputs formalized through grammars, it is common to use context-free grammars to specify the set of its valid entries. In the original work the author developed a tool that automatically generates tests for compilers. In the present work we identify types of problems in various areas where grammars are used to describe them , for example, to specify software configurations, which are potential situations to use LGen. In addition, we conducted case studies with grammars of different domains and from these studies it was possible to evaluate the behavior and performance of LGen during the generation of sentences, evaluating aspects such as execution time, number of generated sentences and satisfaction of coverage criteria available in LGen
Resumo:
Este trabalho tem por objetivo o estudo e a integração, como forma de validação, de ferramentas de software livre para o uso em Gerência e Monitoração de Redes de computadores. Com o crescimento das redes surgiu a necessidade por controle de seus recursos. Desta necessidade foi criado o protocolo SNMP, utilizado nos dias de hoje como padrão de fato na gerência e monitoração de redes. Anteriormente ao surgimento do Software Livre, para a atividade de gerência e monitoração, existiam apenas produtos proprietários, os quais estavam restritos a poucas empresas que podiam arcar com seus custos. Com o surgimento do Software Livre, ferramentas simples de gerência e monitoração começaram a ser criadas. Estas ferramentas simples necessitam ser integradas de forma a prover maior quantidade de recursos. O método proposto desenvolve um protótipo capaz de integrar várias ferramentas de gerência e monitoração utilizando exclusivamente ferramentas de Software Livre. E para demonstrar a idéia na prática, um Estudo de Caso é apresentado utlizando o protótipo desenvolvido.
Resumo:
Through the adoption of the software product line (SPL) approach, several benefits are achieved when compared to the conventional development processes that are based on creating a single software system at a time. The process of developing a SPL differs from traditional software construction, since it has two essential phases: the domain engineering - when common and variables elements of the SPL are defined and implemented; and the application engineering - when one or more applications (specific products) are derived from the reuse of artifacts created in the domain engineering. The test activity is also fundamental and aims to detect defects in the artifacts produced in SPL development. However, the characteristics of an SPL bring new challenges to this activity that must be considered. Several approaches have been recently proposed for the testing process of product lines, but they have been shown limited and have only provided general guidelines. In addition, there is also a lack of tools to support the variability management and customization of automated case tests for SPLs. In this context, this dissertation has the goal of proposing a systematic approach to software product line testing. The approach offers: (i) automated SPL test strategies to be applied in the domain and application engineering, (ii) explicit guidelines to support the implementation and reuse of automated test cases at the unit, integration and system levels in domain and application engineering; and (iii) tooling support for automating the variability management and customization of test cases. The approach is evaluated through its application in a software product line for web systems. The results of this work have shown that the proposed approach can help the developers to deal with the challenges imposed by the characteristics of SPLs during the testing process
Resumo:
Pós-graduação em Pesquisa e Desenvolvimento (Biotecnologia Médica) - FMB
Resumo:
Pós-graduação em Engenharia Elétrica - FEIS
Resumo:
A tecnologia da informação (TI) transformou o mundo nas últimas décadas e suas contribuições no processamento e disseminação da informação provocaram mudanças radicais no modo de viver das pessoas e afetou profundamente a gestão e a estrutura das organizações. Neste novo cenário, a literatura de negócios vem apresentando registros de desperdício de investimentos na área de tecnologia da informação. As dificuldades em reconhecer valor nos investimentos em TI e os desafios enfrentados na gestão de equipes de desenvolvimento de software são aspectos considerados no problema a ser pesquisado, a saber: a área de TI carece de sistemas de controle gerencial que poderiam minimizar riscos de desperdício de recursos, de baixa produtividade ou de fracasso na implantação do sistema a ser desenvolvido?O objetivo geral desta pesquisa é investigar as dificuldades enfrentadas pelas equipes de desenvolvimento de software para avaliar se há ou não desperdício de recursos, segundo a percepção dos entrevistados e, ainda, se há ou não carência de controle gerencial. Investigar quais poderiam ser os indicadores mais adequados para um sistema de controle gerencial voltados para esta área de atuação da TI e mapear fatores de sucesso estão entre os objetivos específicos da pesquisa. Do ponto de vista metodológico, esta é uma pesquisa exploratória que adota o procedimento de estudo de caso baseado em análise qualitativa. Os resultados alcançados confirmam o problema de desperdício de recursos e de baixa produtividade nas equipes de TI da empresa analisada e apontam para a carência de mecanismos ou processos de controle gerencial.