221 resultados para Repositório
Resumo:
Resolução USP no.6.444 de 22/out/2012. Biblioteca Digital da Produção Intelectual da USP. Métricas e indicadores possíveis. Formação em serviço às equipes bibliotecárias SIBi.
Resumo:
A Universidade de São Paulo, Brasil congrega 5.732 docentes, mais de 80 mil alunos de graduação e pós-graduação e tem seu sistema de informação composto por 44 bibliotecas distribuídas em sete campina capital e nove em cidades do interior do estado de São Paulo. Sua produção intelectual anual (técnico-científica, artística e didática) é superior a 40 mil itens. Desenvolver estratégias de política de acesso aberto neste contexto, tem sido uma atividade continua desde 2002. Iniciou-se com a implantação da Biblioteca Digital de Teses e Dissertações, seguiu-se o Portal de Revistas Científicas. Atualmente, iniciou-se a construção do Repositório Institucional da Produção Científica, abarcando publicações de artigos, livros, capítulos de livros, trabalhos em eventos etc. Neste momento, buscando refletir sobre acesso a publicações que envolvem a participação de terceiros e que influenciam a estrutura de avaliação da ciência regulamentada por organismos governamentais, novas estratégias se mostraram necessárias. Optou-se então pela composição de grupo multiplicador composto de professores e alunos, criação de espaço de referência cobrindo temas distintos sobre o acesso aberto, workshop, fórum aberto para discussão do acesso aberto na USP e elaboração de carta de intenções em fase de assinatura e endosso pela comunidade uspiana.
Resumo:
A sociedade atual exige inovadores ambientes de trabalho para lidar efetivamente com uma carga cada vez maior de informações heterogêneas. A produção e divulgação dos dados e novos conhecimentos também ocorrem de forma rápida e ampla. No entanto, recuperar informação relevante torna-se cada vez mais difícil, uma vez que o conhecimento humano não está mais centralizado em unidades físicas de informação e sim distribuído, inclusive em repositórios digitais. Com a diversidade de suportes existentes uma informação pode estar num livro, num artigo, num filme ou num arquivo de áudio. O objetivo deste trabalho é definir os metadados para registros de áudio em repositórios digitais de acesso aberto, garantindo que essas informações tenham maior visibilidade no extenso universo da internet. Os metadados possuem importante contribuição no registro e na futura recuperação do recurso informacional, tornando acessíveis coleções que existem apenas em formato digital. Assim, o processo de recuperação depende da qualidade do tratamento dado ao documento e da escolha e uso dos tipos de metadados. O Dublin Core (DC) é um dos esquemas de metadados mais utilizado em repositórios digitais, sendo já um padrão ISO (ISO 15836:2009). Neste trabalho foi feita a identificação e comparação dos metadados disponíveis no formato MARC 21, na metodologia LILACS e também no esquema DC, definindo-se um escopo mínimo de metadados. Para melhorar e completar a descrição dos registros desse tipo de material, que possui uma complexidade específica, também foram acrescentados novos metadados com base em estudos feitos pela Library of Congress para o desenvolvimento de sua coleção digital. O resultado do trabalho é um formulário específico para os materiais de coleções de áudio, mantendo a compatibilidade e interoperabilidade com o esquema Dublin Core. Aos elementos existentes foram agregados refinamentos como entrevistador, editor de som, áudio bits, duração e identificação do arquivo, que abrangem e melhoram os aspectos de descrição e preservação digital. O mundo está rapidamente sendo transformado pela proliferação de recursos de informação disponíveis e distribuídos pela rede de computadores com um número cada vez maior de instituições que têm desenvolvido coleções digitais. Uma das vantagens das coleções em áudio é o fato de que a linguagem utilizada na expressão oral, especialmente em entrevistas, tende a ser mais coloquial e por isso torna a informação mais acessível aos ouvintes não especializados nas disciplinas em questão e faz a ponte entre universidade e sociedade. Dar visibilidade às coleções de áudio, “spots” de rádio acessíveis que podem ser veiculados por rádios comunitárias e educativas, vai ao encontro do papel de promoção de pesquisas das instituições. Esse compartilhamento da informação contribui para a construção da cidadania e capacitação da população para participar das políticas públicas
Resumo:
USP INFORMATION MANDATE – Resolution 6444 – Oct. 22th, 2012 Make public and accessible the knowledge generated by research developed at USP, encouraging the sharing, the use and generation of new content; •Preserve institutional memory by storing the full text of Intellectual Production (scientific, academic, artistic and technical); •Increase the impact of the knowledge generated in the university within the scientific community and the general public; •It is suggested to all members of the USP community to publish the results of their research, preferably, in open-access publication outlets and/or repositories and to include the permission to deposit their production in the BDPI system in their publication agreements. •Institutional Repository for Intellectual Production; •Official Source USP Statistical Yearbook.
Resumo:
Resumen El Diseño, que apenas está considerado en las políticas de desarrollo, por su parte tampoco ha prestado la adecuada atención a los aspectos de justicia y de desarrollo global. Encontramos los antecedentes del Diseño para el Desarrollo en la “transferencia de tecnología y en la imitación”; en las “tecnologías apropiadas” de los años 70; en la moda de hacer negocios para la “base de la pirámide (BoP)”; más recientemente en el concepto de “innovación apropiada”; y últimamente en el “enfoque de las capacidades”, que engloba cuestiones sobre justicia, igualdad y desarrollo. En este artículo de revisión se realiza una aproximación a la situación actual del Diseño para el Desarrollo, incluyendo productos e iniciativas empresariales, académicas e investigadoras. Para ello, se ha realizado una revisión en buscadores generalistas y en publicaciones especializadas, accesibles desde la Universidad Politécnica de Madrid. Los resultados obtenidos abarcan desde productos comerciales, repositorios en línea de tecnologías de desarrollo, documentación abierta para el diseño/adaptación de productos para el desarrollo, conferencias, revistas, grupos de investigación, iniciativas emprendedoras, etc. Se trata de un tema que no tiene una univoca expresión y que está siendo tratado en muchas áreas, tanto de las ciencias sociales, como técnicas y sanitarias. Abstract The design, which is hardly considered in development policies, has not paid adequate attention to justice and global development issues. The antecedents of Design for Development are found in the "technology transfer and imitation"; in "appropriate technologies" of the 70s; in the fashion of doing business for the "base of the pyramid (BoP)"; more recently in the concept of "appropriate innovation"; and lately in the "capabilities approach" which includes questions about justice, equality and development. In this article review is performed an approach to the current situation of Design for Development including: products, business models and academic and research perspectives. In order to achieve it, the review has been conducted through search engines in generic and specialized publications, accessible from the Polytechnic University of Madrid. The results obtained include from commercial products, online repository development technologies, open documentation for design / adaptation of products for development, to conferences, journals, research groups, entrepreneurial initiatives, etc. This is a topic that has no unambiguous expression and that is being addressed in many areas, as in the social sciences and technical and health sciences. Resumo O projeto, que dificilmente pode ser considerada nas políticas de desenvolvimento, enquanto isso não prestou a atenção suficiente às questões da justiça e do desenvolvimento global. Encontramos a história do Projeto para o Desenvolvimento na "transferência de tecnologia e na imitação"; em "tecnologias apropriadas" dos anos 70; na forma de fazer negócios para a "base da pirâmide (BoP)"; mais recentemente, o conceito de "inovação apropriado"; e, ultimamente, a "abordagem de capacidades", que inclui perguntas sobre justiça, igualdade e desenvolvimento. Neste artigo de revisão existe uma abordagem para a situação atual do projeto de desenvolvimento, incluindo produtos e iniciativas empresariais, acadêmicos e investigadoras. Para isso, realizamos uma revisão nos motores de busca gerais e publicações especializadas, acessível a partir da Universidade Politécnica de Madrid. Os resultados variam de produtos comerciais tecnologias de desenvolvimento repositório on-line, documentação aberta para o projeto / adaptação de produtos para o desenvolvimento, conferências, revistas, grupos de pesquisa, iniciativas empresariais, etc. Este é um tema que não tem um só significado e que esta sendo tratado em muitas áreas, tanto nas ciências sociais, como técnicas e sanitarias.
Resumo:
This research proposes a methodology to improve computed individual prediction values provided by an existing regression model without having to change either its parameters or its architecture. In other words, we are interested in achieving more accurate results by adjusting the calculated regression prediction values, without modifying or rebuilding the original regression model. Our proposition is to adjust the regression prediction values using individual reliability estimates that indicate if a single regression prediction is likely to produce an error considered critical by the user of the regression. The proposed method was tested in three sets of experiments using three different types of data. The first set of experiments worked with synthetically produced data, the second with cross sectional data from the public data source UCI Machine Learning Repository and the third with time series data from ISO-NE (Independent System Operator in New England). The experiments with synthetic data were performed to verify how the method behaves in controlled situations. In this case, the outcomes of the experiments produced superior results with respect to predictions improvement for artificially produced cleaner datasets with progressive worsening with the addition of increased random elements. The experiments with real data extracted from UCI and ISO-NE were done to investigate the applicability of the methodology in the real world. The proposed method was able to improve regression prediction values by about 95% of the experiments with real data.
Resumo:
Introduction – Based on a previous project of University of Lisbon (UL) – a Bibliometric Benchmarking Analysis of University of Lisbon, for the period of 2000-2009 – a database was created to support research information (ULSR). However this system was not integrated with other existing systems at University, as the UL Libraries Integrated System (SIBUL) and the Repository of University of Lisbon (Repositório.UL). Since libraries were called to be part of the process, the Faculty of Pharmacy Library’ team felt that it was very important to get all systems connected or, at least, to use that data in the library systems. Objectives – The main goals were to centralize all the scientific research produced at Faculty of Pharmacy, made it available to the entire Faculty, involve researchers and library team, capitalize and reinforce team work with the integration of several distinct projects and reducing tasks’ redundancy. Methods – Our basis was the imported data collection from the ISI Web of Science (WoS), for the period of 2000-2009, into ULSR. All the researchers and indexed publications at WoS, were identified. A first validation to identify all the researchers and their affiliation (university, faculty, department and unit) was done. The final validation was done by each researcher. In a second round, concerning the same period, all Pharmacy Faculty researchers identified their published scientific work in other databases/resources (NOT WoS). To our strategy, it was important to get all the references and essential/critical to relate them with the correspondent digital objects. To each researcher previously identified, was requested to register all their references of the ‘NOT WoS’ published works, at ULSR. At the same time, they should submit all PDF files (for both WoS and NOT WoS works) in a personal area of the Web server. This effort enabled us to do a more reliable validation and prepare the data and metadata to be imported to Repository and to Library Catalogue. Results – 558 documents related with 122 researchers, were added into ULSR. 1378 bibliographic records (WoS + NOT WoS) were converted into UNIMARC and Dublin Core formats. All records were integrated in the catalogue and repository. Conclusions – Although different strategies could be adopted, according to each library team, we intend to share this experience and give some tips of what could be done and how Faculty of Pharmacy created and implemented her strategy.
Resumo:
O presente estudo contribui com o mapeamento da produção científica sobre o tema Crédito de Carbono, delimitado aos eventos e periódicos selecionados a partir do ranking da Qualis/CAPES na área de Administração, Contabilidade e Turismo - ACT entre 2006 e 2012; bem como periódicos que estão no repositório do Scielo. Este estudo pode ser considerado empírico-analítico, no que diz respeito à sua abordagem metodológica. No que tange aos procedimentos técnicos empregados, pode-se caracterizar a investigação como pesquisa documental, bibliométrica e sociométrica, com ênfase nos artigos produzidos sobre Créditos de Carbono. Foi possível identificar que a produção científica sobre Crédito de Carbono está concentrada no evento EnANPAD e no periódico RGSA. Tal fato sinaliza que o crescimento da publicação em eventos não acompanhou a veiculação em revistas, evidenciando um campo majoritariamente incipiente junto à comunidade acadêmica analisada. A análise de redes sociais possibilitou a identificação de 4 (quatro) quatro redes mais produtivas ligadas institucionalmente às Universidades Federais do Rio de Janeiro e da Bahia, à Universidade de São Caetano do Sul e à Universidade de São Paulo e que não possuem vínculos de autoria entre si.
Resumo:
Software product line engineering promotes large software reuse by developing a system family that shares a set of developed core features, and enables the selection and customization of a set of variabilities that distinguish each software product family from the others. In order to address the time-to-market, the software industry has been using the clone-and-own technique to create and manage new software products or product lines. Despite its advantages, the clone-and-own approach brings several difficulties for the evolution and reconciliation of the software product lines, especially because of the code conflicts generated by the simultaneous evolution of the original software product line, called Source, and its cloned products, called Target. This thesis proposes an approach to evolve and reconcile cloned products based on mining software repositories and code conflict analysis techniques. The approach provides support to the identification of different kinds of code conflicts – lexical, structural and semantics – that can occur during development task integration – bug correction, enhancements and new use cases – from the original evolved software product line to the cloned product line. We have also conducted an empirical study of characterization of the code conflicts produced during the evolution and merging of two large-scale web information system product lines. The results of our study demonstrate the approach potential to automatically or semi-automatically solve several existing code conflicts thus contributing to reduce the complexity and costs of the reconciliation of cloned software product lines.
Resumo:
A manutenção e evolução de sistemas de software tornou-se uma tarefa bastante crítica ao longo dos últimos anos devido à diversidade e alta demanda de funcionalidades, dispositivos e usuários. Entender e analisar como novas mudanças impactam os atributos de qualidade da arquitetura de tais sistemas é um pré-requisito essencial para evitar a deterioração de sua qualidade durante sua evolução. Esta tese propõe uma abordagem automatizada para a análise de variação do atributo de qualidade de desempenho em termos de tempo de execução (tempo de resposta). Ela é implementada por um framework que adota técnicas de análise dinâmica e mineração de repositório de software para fornecer uma forma automatizada de revelar fontes potenciais – commits e issues – de variação de desempenho em cenários durante a evolução de sistemas de software. A abordagem define quatro fases: (i) preparação – escolher os cenários e preparar os releases alvos; (ii) análise dinâmica – determinar o desempenho de cenários e métodos calculando seus tempos de execução; (iii) análise de variação – processar e comparar os resultados da análise dinâmica para releases diferentes; e (iv) mineração de repositório – identificar issues e commits associados com a variação de desempenho detectada. Estudos empíricos foram realizados para avaliar a abordagem de diferentes perspectivas. Um estudo exploratório analisou a viabilidade de se aplicar a abordagem em sistemas de diferentes domínios para identificar automaticamente elementos de código fonte com variação de desempenho e as mudanças que afetaram tais elementos durante uma evolução. Esse estudo analisou três sistemas: (i) SIGAA – um sistema web para gerência acadêmica; (ii) ArgoUML – uma ferramenta de modelagem UML; e (iii) Netty – um framework para aplicações de rede. Outro estudo realizou uma análise evolucionária ao aplicar a abordagem em múltiplos releases do Netty, e dos frameworks web Wicket e Jetty. Nesse estudo foram analisados 21 releases (sete de cada sistema), totalizando 57 cenários. Em resumo, foram encontrados 14 cenários com variação significante de desempenho para Netty, 13 para Wicket e 9 para Jetty. Adicionalmente, foi obtido feedback de oito desenvolvedores desses sistemas através de um formulário online. Finalmente, no último estudo, um modelo de regressão para desempenho foi desenvolvido visando indicar propriedades de commits que são mais prováveis a causar degradação de desempenho. No geral, 997 commits foram minerados, sendo 103 recuperados de elementos de código fonte degradados e 19 de otimizados, enquanto 875 não tiveram impacto no tempo de execução. O número de dias antes de disponibilizar o release e o dia da semana se mostraram como as variáveis mais relevantes dos commits que degradam desempenho no nosso modelo. A área de característica de operação do receptor (ROC – Receiver Operating Characteristic) do modelo de regressão é 60%, o que significa que usar o modelo para decidir se um commit causará degradação ou não é 10% melhor do que uma decisão aleatória.
Resumo:
A manutenção e evolução de sistemas de software tornou-se uma tarefa bastante crítica ao longo dos últimos anos devido à diversidade e alta demanda de funcionalidades, dispositivos e usuários. Entender e analisar como novas mudanças impactam os atributos de qualidade da arquitetura de tais sistemas é um pré-requisito essencial para evitar a deterioração de sua qualidade durante sua evolução. Esta tese propõe uma abordagem automatizada para a análise de variação do atributo de qualidade de desempenho em termos de tempo de execução (tempo de resposta). Ela é implementada por um framework que adota técnicas de análise dinâmica e mineração de repositório de software para fornecer uma forma automatizada de revelar fontes potenciais – commits e issues – de variação de desempenho em cenários durante a evolução de sistemas de software. A abordagem define quatro fases: (i) preparação – escolher os cenários e preparar os releases alvos; (ii) análise dinâmica – determinar o desempenho de cenários e métodos calculando seus tempos de execução; (iii) análise de variação – processar e comparar os resultados da análise dinâmica para releases diferentes; e (iv) mineração de repositório – identificar issues e commits associados com a variação de desempenho detectada. Estudos empíricos foram realizados para avaliar a abordagem de diferentes perspectivas. Um estudo exploratório analisou a viabilidade de se aplicar a abordagem em sistemas de diferentes domínios para identificar automaticamente elementos de código fonte com variação de desempenho e as mudanças que afetaram tais elementos durante uma evolução. Esse estudo analisou três sistemas: (i) SIGAA – um sistema web para gerência acadêmica; (ii) ArgoUML – uma ferramenta de modelagem UML; e (iii) Netty – um framework para aplicações de rede. Outro estudo realizou uma análise evolucionária ao aplicar a abordagem em múltiplos releases do Netty, e dos frameworks web Wicket e Jetty. Nesse estudo foram analisados 21 releases (sete de cada sistema), totalizando 57 cenários. Em resumo, foram encontrados 14 cenários com variação significante de desempenho para Netty, 13 para Wicket e 9 para Jetty. Adicionalmente, foi obtido feedback de oito desenvolvedores desses sistemas através de um formulário online. Finalmente, no último estudo, um modelo de regressão para desempenho foi desenvolvido visando indicar propriedades de commits que são mais prováveis a causar degradação de desempenho. No geral, 997 commits foram minerados, sendo 103 recuperados de elementos de código fonte degradados e 19 de otimizados, enquanto 875 não tiveram impacto no tempo de execução. O número de dias antes de disponibilizar o release e o dia da semana se mostraram como as variáveis mais relevantes dos commits que degradam desempenho no nosso modelo. A área de característica de operação do receptor (ROC – Receiver Operating Characteristic) do modelo de regressão é 60%, o que significa que usar o modelo para decidir se um commit causará degradação ou não é 10% melhor do que uma decisão aleatória.
Resumo:
Software bug analysis is one of the most important activities in Software Quality. The rapid and correct implementation of the necessary repair influence both developers, who must leave the fully functioning software, and users, who need to perform their daily tasks. In this context, if there is an incorrect classification of bugs, there may be unwanted situations. One of the main factors to be assigned bugs in the act of its initial report is severity, which lives up to the urgency of correcting that problem. In this scenario, we identified in datasets with data extracted from five open source systems (Apache, Eclipse, Kernel, Mozilla and Open Office), that there is an irregular distribution of bugs with respect to existing severities, which is an early sign of misclassification. In the dataset analyzed, exists a rate of about 85% bugs being ranked with normal severity. Therefore, this classification rate can have a negative influence on software development context, where the misclassified bug can be allocated to a developer with little experience to solve it and thus the correction of the same may take longer, or even generate a incorrect implementation. Several studies in the literature have disregarded the normal bugs, working only with the portion of bugs considered severe or not severe initially. This work aimed to investigate this portion of the data, with the purpose of identifying whether the normal severity reflects the real impact and urgency, to investigate if there are bugs (initially classified as normal) that could be classified with other severity, and to assess if there are impacts for developers in this context. For this, an automatic classifier was developed, which was based on three algorithms (Näive Bayes, Max Ent and Winnow) to assess if normal severity is correct for the bugs categorized initially with this severity. The algorithms presented accuracy of about 80%, and showed that between 21% and 36% of the bugs should have been classified differently (depending on the algorithm), which represents somewhere between 70,000 and 130,000 bugs of the dataset.
Resumo:
The IT capability is a organizational ability to perform activities of this role more effectively and an important mechanism in creating value. Its building process (stages of creation and development) occurs through management initiatives for improvement in the performance of their activities, using human resources and IT assets complementary responsible for the evolution of their organizational routines. This research deals with the IT capabilities related to SIG (integrated institutional management systems), built and deployed in UFRN (Universidade Federal do Rio Grande do Norte) to realization and control of administrative, academic and human resources activities. Since 2009, through cooperative agreements with federal and educational institutions of direct administration, UFRN has supported the implementation of these systems, currently involving more than 30 institutions. The present study aims to understand how IT capabilities, relevant in the design, implementation and dissemination of SIG, were built over time. This is a single case study of qualitative and longitudinal nature, performed by capturing, coding and analysis from secondary data and from semi-structured interviews conducted primarily with members of Superintenência de Informática, organizational unit responsible for SIG systems in UFRN. As a result, the technical, of internal relationship and external cooperation capabilities were identified as relevant in the successful trajectory of SIG systems, which have evolved in different ways. The technical capacity, initiated in 2004, toured the stages of creation and development until it reached the stage of stability in 2013, due to technological limits. Regarding the internal relationship capability, begun in 2006, it toured the stages of creation and development, having extended its scope of activities in 2009, being in development since then. Unlike the standard life cycle observed in the literature, the external cooperation capability was initiated by an intensity of initiatives and developments in the routines in 2009, which were decreasing to cease in 2013 in order to stabilize the technological infrastructure already created for cooperative institutions. It was still identified the start of cooperation in 2009 as an important event selection, responsible for changing or creating trajectories of evolution in all three capacities. The most frequent improvements initiatives were of organizational nature and the internal planning activity has been transformed over the routines of the three capabilities. Important resources and complementary assets have been identified as important for the realization of initiatives, such as human resources technical knowledge to the technical capabilities and external cooperation, and business knowledge, for all of them, as well as IT assets: the iproject application for control of development processes, and the document repository wiki. All these resources and complementary assets grew along the capacities, demonstrating its strategic value to SINFO/UFRN
Resumo:
As empresas utilizam vários tipos de recurso para suas operações, logística, recursos financeiros, recursos humanos bem como recursos para gerar seu portfólio de produtos e serviços. No último século os gestores de empresas desenvolveram práticas e ferramentas para maximizar os resultados decorrentes da aplicação destes recursos. Esta dissertação aborda o problema da falta conhecimento a respeito do processo de mapeamento e gestão do conhecimento dentro de uma IES e objetiva propor um protótipo de mapeamento e gestão do conhecimento em uma instituição de ensino superior, para identificar as competências presentes dentro de uma IES. Esse trabalho está inserido no contexto organizacional de uma IES que, devido às constantes evoluções mercadológicas, necessita saber qual é o seu capital humano, o conhecimento que possui e quais são esses, pautado em uma ferramenta computacional. De acordo com o exposto, a dissertação segue o perfil acadêmico criando um protótipo que pode ser aplicado ao viés mercadológico. A importância da pesquisa acadêmica pode ser pautada no conhecimento que foi gerado a partir do estudo e da análise para a elaboração da dissertação; o conhecimento poderá ser replicado em outras IES, pois, a partir do protótipo construído e aplicado em uma Instituição de Ensino Superior, sua evolução ao ser utilizado/aprimorado em outra IES seria natural. A proposta e implementação de um protótipo com requisitos básicos apresentados nesta dissertação, possuem vários pontos em comum com a gestão do conhecimento, em que a ideia de desenvolver um protótipo de sistema de mapeamento de conhecimento nasce a partir de um repositório de dados (Plataforma Lattes), no qual os pesquisadores, cientistas, e alunos de programas de pós-graduação possuem seus currículos armazenados. As pesquisas e o aprimoramento técnico adquiridos com a construção dessa dissertação, com o objetivo de apresentar um protótipo de mapeamento do conhecimento utilizando ferramentas de código aberto (não pagas) para o seu desenvolvimento, tem a finalidade de identificar as competências presentes dentro de uma IES.
Resumo:
As pesquisas e as práticas em inteligência analítica na Engenharia de Software têm crescido nas últimas décadas. As informações contidas em um repositório de software podem auxiliar engenheiros de software em suas atividades durante todas as fases do desenvolvimento de software. O uso da inteligência analítica está ajudando os profissionais da Engenharia de Software a obterem informações relevantes do repositório de software, direcionando-os para melhores tomadas de decisões. Por se tratar de um bem intangível, pode ser difícil compreender as informações geradas pelo software. Este trabalho realizou um mapeamento sistemático da literatura sobre inteligência analítica na Engenharia de Software, o que propiciou a elaboração de um arcabouço conceitual para utilização da inteligência analítica capaz de auxiliar nas atividades da Engenharia de Software. Com a finalidade de validar este arcabouço conceitual, foi construído um protótipo de uma aplicação que analisou dados de um software livre. Tal protótipo foi validado e comentado por um grupo focal formado por desenvolvedores e gestores de projetos de software de uma grande empresa da área de Tecnologia da Informação. Concluiu-se que a inteligência analítica é fortemente utilizada durante a fase de manutenção e vem crescendo sua utilização na área de Gestão e na Prática Profissional. Constatou-se que os commits podem ser bons indicadores da evolução de software e que a ferramenta desenvolvida neste trabalho permite compreender o que está sendo alterado no sistema e por que a alteração ocorreu.