1000 resultados para Software, Brasil
Resumo:
Software product line engineering promotes large software reuse by developing a system family that shares a set of developed core features, and enables the selection and customization of a set of variabilities that distinguish each software product family from the others. In order to address the time-to-market, the software industry has been using the clone-and-own technique to create and manage new software products or product lines. Despite its advantages, the clone-and-own approach brings several difficulties for the evolution and reconciliation of the software product lines, especially because of the code conflicts generated by the simultaneous evolution of the original software product line, called Source, and its cloned products, called Target. This thesis proposes an approach to evolve and reconcile cloned products based on mining software repositories and code conflict analysis techniques. The approach provides support to the identification of different kinds of code conflicts – lexical, structural and semantics – that can occur during development task integration – bug correction, enhancements and new use cases – from the original evolved software product line to the cloned product line. We have also conducted an empirical study of characterization of the code conflicts produced during the evolution and merging of two large-scale web information system product lines. The results of our study demonstrate the approach potential to automatically or semi-automatically solve several existing code conflicts thus contributing to reduce the complexity and costs of the reconciliation of cloned software product lines.
Resumo:
The soil heat flux and soil thermal diffusivity are important components of the surface energy balance, especially in ar id and semi-arid regions. The obj ective of this work was to carry out to estimate the soil heat flux from th e soil temperature measured at a single depth, based on the half-order time derivative met hod proposed by Wang and Bras (1999), and to establish a method capable of es timating the thermal diffusivity of the soil, based on the half order derivative, from the temporal series of soil temperature at two depths. The results obtained in the estimates of soil heat flux were compared with the values of soil heat flux measured through flux plates, and the thermal di ffusivity estimated was compared with the measurements carried out in situ. The results obtained showed excellent concordance between the estimated and measured soil heat flux, with correlation (r), coeffici ent of determination (R 2 ) and standard error (W/m 2 ) of: r = 0.99093, R 2 = 0.98194 and error = 2.56 (W/m 2 ) for estimated period of 10 days; r = 0,99069, R 2 = 0,98147 and error = 2.59 (W/m 2 ) for estimated period of 30 days; and r = 0,98974, R 2 = 0,97958 and error = 2.77 (W/m 2 ) for estimated period of 120 days. The values of thermal di ffusivity estimated by the proposed method showed to be coherent and consis tent with in situ measured va lues, and with the values found in the literature usi ng conventional methods.
Resumo:
This work has as object the elaboration of social environmental indicator of disaster risk that are present in precarious areas of human occupation, related to intense environmental dynamic from the perspective of the studies about the subject in Geography. The District of Mãe Luiza in Natal, capital city of Rio Grande do Norte, was defined as the study area. The place was chosen because it presents –historically- several vulnerability conditions and exposure to disaster risk. After a local social environmental description, two indexes were elaborated: the Social Vulnerability Index (SVI or IVS in Portuguese), based on 17 (seventeen) variables arranged on a questionnaire addressed to the population nucleus of the district, on regular grid (systematic sampling), classified into 5 (five) levels of SV from the weighted average; and the Physical and Natural Exposure to the Mass Movements Index (EMMI or IEMM in Portuguese) which had 16 (sixteen) variables that feature conditions of exposure to the mass movements in the district with classified levels from the weighted average of 1 (one) to 5 (five). The relationship between these two results, specialized in the district map, produced the Social Environmental Vulnerability Index (SEVI or IVSA in Portuguese) of Mãe Luiza, also classified into 5 (five) levels, following the Boolean logic correlation for cartographic overlay with use of computer software ArcGIS v.9.3, being named as: Very Low; low; average; high; and Very High Environmental Vulnerability in District. The study is based on the methodology proposed by Guerra et al (2009) for EMMI and by Almeida (2010) for SVI. They were modified and adapted according to the local reality, producing a new methodology in this study area. It was concluded that the neighborhood has most of its area with High and Very High Socio-environmental vulnerability to disasters, defined seven (7) critical areas, with Very High IVSA, and hazards associated with mass movements or flooding. In the end, the main issues that were found, such as generating elements for proposing mitigation measures and/or the proposed interventions were enumerated, related to structural order of vulnerability factors: how low constructive pattern of households; poor urban drainage; Real Estate forsaken in landslide routes; infrastructure ready access roads and slope containment. And social: as a lack of education about environmental risk; income and education of residents; presence of persons with limited mobility and/or those with special needs. This reality highlights the need for urgent action applied to the resolution and/or reduction of these problems, which is focusing the end of this work.
Resumo:
O NAVSTAR/GPS (NAVigation System with Timing And Ranging/Global Po- sitioning System), mais conhecido por GPS, _e um sistema de navegacão baseado em sat_elites desenvolvido pelo departamento de defesa norte-americano em meados de 1970. Criado inicialmente para fins militares, o GPS foi adaptado para o uso civil. Para fazer a localização, o receptor precisa fazer a aquisição de sinais dos satélites visíveis. Essa etapa é de extrema importância, pois é responsável pela detecção dos satélites visíveis, calculando suas respectivas frequências e fases iniciais. Esse processo pode demandar bastante tempo de processamento e precisa ser implementado de forma eficiente. Várias técnicas são utilizadas atualmente, mas a maioria delas colocam em conflito questões de projeto tais como, complexidade computacional, tempo de aquisição e recursos computacionais. Objetivando equilibrar essas questões, foi desenvolvido um método que reduz a complexidade do processo de aquisição utilizando algumas estratégias, a saber, redução do efeito doppler, amostras e tamanho do sinal utilizados, além do paralelismo. Essa estratégia é dividida em dois passos, um grosseiro em todo o espaço de busca e um fino apenas na região identificada previamente pela primeira etapa. Devido a busca grosseira, o limiar do algoritmo convencional não era mais aceitável. Nesse sentido, um novo limiar foi estabelecido baseado na variância dos picos de correlação. Inicialmente, é feita uma busca com pouca precisão comparando a variância dos cinco maiores picos de correlação encontrados. Caso a variância ultrapasse um certo limiar, a região de maior pico torna-se candidata à detecção. Por fim, essa região passa por um refinamento para se ter a certeza de detecção. Os resultados mostram que houve uma redução significativa na complexidade e no tempo de execução, sem que tenha sido necessário utilizar algoritmos muito complexos.
Resumo:
The research proposes a reflection on tutorial videos from Youtube, seen as a form of gift in modern society. Our reflection parts form a perspective of mutual exchange, which avoids the patterns of trade with current economic purposes. We present these video producers as craftsmen of cyberculture due to the skill and competence which they transmit their knowledge. The research is consisted by the observation of video tutorials on YouTube over the Linux operating system and its distributions. Analyzing the interactions between video producers, users and the website. The analysis is based on the classic Mauss (2003) and his reinterpretations of Caille (1998, 2001, 2002, 2006), Godbout (1992, 1998) assisted by Aime Cossetta (2010) and Sennett (2009) to help understand the idea of the craftsmen. The Internet as an open territory in expansion ables us to understand that the relationship in this medium also constitutes the reciprocal links pointed out by Mauss in the early twentieth century. The circulation of intangible property, in this case the knowledge beyond the establishment of social links, promotes a collaborative extent to produce the common in cyberspace.
Resumo:
The spread of wireless networks and growing proliferation of mobile devices require the development of mobility control mechanisms to support the different demands of traffic in different network conditions. A major obstacle to developing this kind of technology is the complexity involved in handling all the information about the large number of Moving Objects (MO), as well as the entire signaling overhead required to manage these procedures in the network. Despite several initiatives have been proposed by the scientific community to address this issue they have not proved to be effective since they depend on the particular request of the MO that is responsible for triggering the mobility process. Moreover, they are often only guided by wireless medium statistics, such as Received Signal Strength Indicator (RSSI) of the candidate Point of Attachment (PoA). Thus, this work seeks to develop, evaluate and validate a sophisticated communication infrastructure for Wireless Networking for Moving Objects (WiNeMO) systems by making use of the flexibility provided by the Software-Defined Networking (SDN) paradigm, where network functions are easily and efficiently deployed by integrating OpenFlow and IEEE 802.21 standards. For purposes of benchmarking, the analysis was conducted in the control and data planes aspects, which demonstrate that the proposal significantly outperforms typical IPbased SDN and QoS-enabled capabilities, by allowing the network to handle the multimedia traffic with optimal Quality of Service (QoS) transport and acceptable Quality of Experience (QoE) over time.
Resumo:
A manutenção e evolução de sistemas de software tornou-se uma tarefa bastante crítica ao longo dos últimos anos devido à diversidade e alta demanda de funcionalidades, dispositivos e usuários. Entender e analisar como novas mudanças impactam os atributos de qualidade da arquitetura de tais sistemas é um pré-requisito essencial para evitar a deterioração de sua qualidade durante sua evolução. Esta tese propõe uma abordagem automatizada para a análise de variação do atributo de qualidade de desempenho em termos de tempo de execução (tempo de resposta). Ela é implementada por um framework que adota técnicas de análise dinâmica e mineração de repositório de software para fornecer uma forma automatizada de revelar fontes potenciais – commits e issues – de variação de desempenho em cenários durante a evolução de sistemas de software. A abordagem define quatro fases: (i) preparação – escolher os cenários e preparar os releases alvos; (ii) análise dinâmica – determinar o desempenho de cenários e métodos calculando seus tempos de execução; (iii) análise de variação – processar e comparar os resultados da análise dinâmica para releases diferentes; e (iv) mineração de repositório – identificar issues e commits associados com a variação de desempenho detectada. Estudos empíricos foram realizados para avaliar a abordagem de diferentes perspectivas. Um estudo exploratório analisou a viabilidade de se aplicar a abordagem em sistemas de diferentes domínios para identificar automaticamente elementos de código fonte com variação de desempenho e as mudanças que afetaram tais elementos durante uma evolução. Esse estudo analisou três sistemas: (i) SIGAA – um sistema web para gerência acadêmica; (ii) ArgoUML – uma ferramenta de modelagem UML; e (iii) Netty – um framework para aplicações de rede. Outro estudo realizou uma análise evolucionária ao aplicar a abordagem em múltiplos releases do Netty, e dos frameworks web Wicket e Jetty. Nesse estudo foram analisados 21 releases (sete de cada sistema), totalizando 57 cenários. Em resumo, foram encontrados 14 cenários com variação significante de desempenho para Netty, 13 para Wicket e 9 para Jetty. Adicionalmente, foi obtido feedback de oito desenvolvedores desses sistemas através de um formulário online. Finalmente, no último estudo, um modelo de regressão para desempenho foi desenvolvido visando indicar propriedades de commits que são mais prováveis a causar degradação de desempenho. No geral, 997 commits foram minerados, sendo 103 recuperados de elementos de código fonte degradados e 19 de otimizados, enquanto 875 não tiveram impacto no tempo de execução. O número de dias antes de disponibilizar o release e o dia da semana se mostraram como as variáveis mais relevantes dos commits que degradam desempenho no nosso modelo. A área de característica de operação do receptor (ROC – Receiver Operating Characteristic) do modelo de regressão é 60%, o que significa que usar o modelo para decidir se um commit causará degradação ou não é 10% melhor do que uma decisão aleatória.
Resumo:
A manutenção e evolução de sistemas de software tornou-se uma tarefa bastante crítica ao longo dos últimos anos devido à diversidade e alta demanda de funcionalidades, dispositivos e usuários. Entender e analisar como novas mudanças impactam os atributos de qualidade da arquitetura de tais sistemas é um pré-requisito essencial para evitar a deterioração de sua qualidade durante sua evolução. Esta tese propõe uma abordagem automatizada para a análise de variação do atributo de qualidade de desempenho em termos de tempo de execução (tempo de resposta). Ela é implementada por um framework que adota técnicas de análise dinâmica e mineração de repositório de software para fornecer uma forma automatizada de revelar fontes potenciais – commits e issues – de variação de desempenho em cenários durante a evolução de sistemas de software. A abordagem define quatro fases: (i) preparação – escolher os cenários e preparar os releases alvos; (ii) análise dinâmica – determinar o desempenho de cenários e métodos calculando seus tempos de execução; (iii) análise de variação – processar e comparar os resultados da análise dinâmica para releases diferentes; e (iv) mineração de repositório – identificar issues e commits associados com a variação de desempenho detectada. Estudos empíricos foram realizados para avaliar a abordagem de diferentes perspectivas. Um estudo exploratório analisou a viabilidade de se aplicar a abordagem em sistemas de diferentes domínios para identificar automaticamente elementos de código fonte com variação de desempenho e as mudanças que afetaram tais elementos durante uma evolução. Esse estudo analisou três sistemas: (i) SIGAA – um sistema web para gerência acadêmica; (ii) ArgoUML – uma ferramenta de modelagem UML; e (iii) Netty – um framework para aplicações de rede. Outro estudo realizou uma análise evolucionária ao aplicar a abordagem em múltiplos releases do Netty, e dos frameworks web Wicket e Jetty. Nesse estudo foram analisados 21 releases (sete de cada sistema), totalizando 57 cenários. Em resumo, foram encontrados 14 cenários com variação significante de desempenho para Netty, 13 para Wicket e 9 para Jetty. Adicionalmente, foi obtido feedback de oito desenvolvedores desses sistemas através de um formulário online. Finalmente, no último estudo, um modelo de regressão para desempenho foi desenvolvido visando indicar propriedades de commits que são mais prováveis a causar degradação de desempenho. No geral, 997 commits foram minerados, sendo 103 recuperados de elementos de código fonte degradados e 19 de otimizados, enquanto 875 não tiveram impacto no tempo de execução. O número de dias antes de disponibilizar o release e o dia da semana se mostraram como as variáveis mais relevantes dos commits que degradam desempenho no nosso modelo. A área de característica de operação do receptor (ROC – Receiver Operating Characteristic) do modelo de regressão é 60%, o que significa que usar o modelo para decidir se um commit causará degradação ou não é 10% melhor do que uma decisão aleatória.
Resumo:
Soft skills and teamwork practices were identi ed as the main de ciencies of recent graduates in computer courses. This issue led to a realization of a qualitative research aimed at investigating the challenges faced by professors of those courses in conducting, monitoring and assessing collaborative software development projects. Di erent challenges were reported by teachers, including di culties in the assessment of students both in the collective and individual levels. In this context, a quantitative research was conducted with the aim to map soft skill of students to a set of indicators that can be extracted from software repositories using data mining techniques. These indicators are aimed at measuring soft skills, such as teamwork, leadership, problem solving and the pace of communication. Then, a peer assessment approach was applied in a collaborative software development course of the software engineering major at the Federal University of Rio Grande do Norte (UFRN). This research presents a correlation study between the students' soft skills scores and indicators based on mining software repositories. This study contributes: (i) in the presentation of professors' perception of the di culties and opportunities for improving management and monitoring practices in collaborative software development projects; (ii) in investigating relationships between soft skills and activities performed by students using software repositories; (iii) in encouraging the development of soft skills and the use of software repositories among software engineering students; (iv) in contributing to the state of the art of three important areas of software engineering, namely software engineering education, educational data mining and human aspects of software engineering.
Resumo:
Soft skills and teamwork practices were identi ed as the main de ciencies of recent graduates in computer courses. This issue led to a realization of a qualitative research aimed at investigating the challenges faced by professors of those courses in conducting, monitoring and assessing collaborative software development projects. Di erent challenges were reported by teachers, including di culties in the assessment of students both in the collective and individual levels. In this context, a quantitative research was conducted with the aim to map soft skill of students to a set of indicators that can be extracted from software repositories using data mining techniques. These indicators are aimed at measuring soft skills, such as teamwork, leadership, problem solving and the pace of communication. Then, a peer assessment approach was applied in a collaborative software development course of the software engineering major at the Federal University of Rio Grande do Norte (UFRN). This research presents a correlation study between the students' soft skills scores and indicators based on mining software repositories. This study contributes: (i) in the presentation of professors' perception of the di culties and opportunities for improving management and monitoring practices in collaborative software development projects; (ii) in investigating relationships between soft skills and activities performed by students using software repositories; (iii) in encouraging the development of soft skills and the use of software repositories among software engineering students; (iv) in contributing to the state of the art of three important areas of software engineering, namely software engineering education, educational data mining and human aspects of software engineering.
Resumo:
Mapeamento das dissertações e teses referentes à subárea da comunicação popular, alternativa e comunitária (CPAC) desenvolvidas nos Programas de Pós-Graduação em Comunicação stricto sensu no Brasil, de 1972 a 2012. Dentre os objetivos estão localizar as pesquisas; os autores; sua distribuição no tempo e espaço; identificar as instituições e orientadores que impulsionam a subárea; definir as abordagens teórico-metodológicas; e apontar autores/conceitos referência. Por meio de pesquisa exploratória e aplicação de quatro filtros, chegou-se a uma amostra final de 102 pesquisas, 87 dissertações e 15 teses, submetidas à análise quantitativa, por meio de Análise de Conteúdo a partir de partes pré-definidas (Resumo, Palavras chave, Introdução, Sumário, Considerações Finais e capítulo metodológico, quando presente), e a uma análise qualitativa do conteúdo completo das 15 teses. O método que orienta esta pesquisa é o histórico dialético, na perspectiva da busca de uma análise de conjunto e atenta às contradições e mudanças que o objeto está implicado; e a pesquisa bibliográfica que a fundamenta se ancora em autores como Jorge González, Cicilia Peruzzo, Regina Festa, Pedro Gilberto Gomes, Gilberto Giménez e Augusto Triviños e foi realizada com o apoio do software NVivo. Resultados quantitativos indicam: a) predominância de pesquisas sobre comunicação comunitária (68%) b) predominância de estudos empíricos (79%); c) a variedade de denominações atribuídas às experiências pelos pesquisadores; d) a constante luta das classes populares por democratização da comunicação e por direitos sociais ao longo dos anos; e) a influência e importância dos intelectuais orgânicos nas experiências estudadas, f) problemas metodológicos; g) UMESP, USP e UFRJ como instituições protagonistas, e, h) Cicilia Peruzzo e Raquel Paiva como as que mais orientam teses e dissertações sobre a temática. Quanto à análise qualitativa verificaram-se alguns critérios que permeiam a CPAC: 1) a definição de classes subalternas; 2) a importância da participação ativa das comunidades nos processos de comunicação; e 3) formas, conteúdos e objetivos que se complementam e dão identidade às experiências
Resumo:
O presente trabalho tem como propósito responder a questão "qual o interesse estratégico de empresas do distrito de Aveiro se internacionalizarem para os Países Africanos de Língua Oficial Portuguesa (PALOP) e/ ou Brasil - Ceará?". O objeto de estudo surgiu após a integração num estágio curricular na AIDA - Associação Industrial do Distrito de Aveiro - e levou à revisão da literatura dos temas estratégia e internacionalização, assim como ao trabalho de campo (6 entrevistas a colaboradoras da AIDA), proporcionando as componentes conceptual e empírica. Verificou-se que o setor de atividade é fundamental para o sucesso das empresas nas missões. Designadamente, bastantes empresas ligadas ao setor metalomecânico, que tendem a recorrer a estes mercados dos PALOP e/ ou Brasil - Ceará, alcançaram, em muitos casos, o sucesso - isto é, a concretização de negócios com novos clientes e / ou o investimento direto nesses países. O contributo do presente trabalho reside também na perspetiva, resultante de um inquérito desenvolido no âmbito do estágio no Gabinete de Relações Exteriores da AIDA, de que ainda que se verifique uma janela de oportunidade para algumas das empresas nos referidos mercados (PALOP e Brasil - Ceará), entende-se que, para o sucesso efetivo destas empresas, outras formas de empreender poderiam ser colocadas em prática, nomeadamente alianças estratégicas entre pequenas e médias empresas (PME) de setores semelhantes, a nível local (Portugal), para competirem a nível internacional com os respetivos líderes de mercado. Desta forma, sugere-se lutar pela competitividade não só nos PALOP mas também nos mercados desenvolvidos, tais como Alemanha, Estados Unidos da América e/ ou países escandinavos - pois somente com clientes exigentes e com a pressão de concorrentes fortes poder-se-ão criar indústrias desenvolvidas e capazes de competir ao mais elevado nível e pelos melhores clientes, com poder de compra e fontes de inovação (Porter, 1990). Estas lições parecem, por ezes, esquecidas, mas segundo Gibbs (2007) um dos propósitos da investigação é também o de lembrar o que foi esquecido e/ ou ignorado. As entrevistas realizadas ofereceram contributo na medida em que proporcionam a compreensão dos motivos para as empresas portuguesas escolherem estes mercados, das razões para o sucesso ou insucesso nos PALOP e/ ou Brasil - Ceará, do investimento e esforço por parte das entidades não-governamentais portuguesas em internacionalizar empresas do setor da metalomecânica, das forças e fraquezas das missões empresariais, de que aspetos fazem da AIDA um agente de mudança e das áreas em que poderia haver maior diligência por parte da AIDA.São também sugeridas recomendações a associação, entre outras, a inclusão das questões culturais de cada país nos estudos de mercado não só sobre PALOP e Brasil - Ceará, mas também nos estudos de mercado do distrito de Aveiro, assim como de Portugal, para fazer divulgação a potenciais importadores; melhoria de processos, implementando-se um software de gestão/ partilha de conhecimento das várias oportunidades de negócio, rentabilizando o processo de estabelecimento de interesse em realizar negócio, no âmbito do EEN (Entelprise Eumpe Netwrk); intervenção na plataforma do IAPMEI por informáticos habilitados; e armazenamento de dados em cloud storage - um serviço do género da Dropbox, de modo a rentabilizar o tempo dispendido, assim como a tornar as pastas acedidas via intranet mais pequenas.
Resumo:
El presente trabajo de investigación consiste en la descripción y análisis de teorías de gestión de cambio organizacional sobre un caso de estudio en particular, como lo es el cambio en el proceso de solicitud y gestión de proyectos de Software en la compañía Inversiones Colombia tras su venta al Banco de Brasil. El problema de investigación trata la percepción de los empleados frente a la implementación del cambio anteriormente mencionado. Dicho análisis contribuye a identificar los aspectos positivos y negativos de dicha implementación a través del uso de un modelo logit, el cual es planteado a través del análisis de los modelos de Lippit’s citado por Mitchell (2013) y Lewin’s (1951). Los aspectos positivos y negativos permiten definir estrategias para la implementación de cambios que ayuden a la maximización de los aspectos positivos y la disminución o eliminación de los aspectos negativos. La investigación se realizó utilizando diferentes técnicas como: documentación de procesos internos de la compañía, encuestas y revisión de la literatura. Lo anterior favoreció para la formulación de conclusiones, donde resalta la importancia de utilizar una teoría de implementación de cambio organizacional que ayude a maximizar los aspectos positivos de una gestión del cambio y donde los hallazgos reflejan la poca comunicación y socialización que se hizo a los empleados sobre el cambio a implementar, además de que no se hizo una sensibilización sobre el nuevo proceso a implementar.
Resumo:
Este artículo presenta la experiencia inédita de ofrecer contenidos audiovisuales para televisión pública digital interactiva brasileña, posibilitando el “diálogo” entre audiencias y empresas por medio del control remoto y del sistema broadcasting. La experiencia de televisión digital interactiva es realizada por la Empresa Brasil de Comunicación (ebc) que, a través de la multiprogramación, creó un canal de servicios para atender a la población de bajos ingresos, asistida por el Programa Bolsa Familia. En 2013, la primera experiencia del proyecto Brasil 4D fue realizada con cien familias en João Pessoa, capital de la provincia de Paraíba, durante tres meses y, desde 2014, el proyecto está siendo desarrollado en Brasilia, Distrito Federal, con trescientas familias. El proyecto, que ofrece gratuitamente nuevos contenidos audiovisuales interactivos, mezcla innovación tecnológica, utilización de multiplataformas y multiprogramación, es desarrollado en software libre.
Resumo:
Abstract – Background – The software effort estimation research area aims to improve the accuracy of this estimation in software projects and activities. Aims – This study describes the development and usage of a web application tocollect data generated from the Planning Poker estimation process and the analysis of the collected data to investigate the impact of revising previous estimates when conducting similar estimates in a Planning Poker context. Method – Software activities were estimated by Universidade Tecnológica Federal do Paraná (UTFPR) computer students, using Planning Poker, with and without revising previous similar activities, storing data regarding the decision-making process. And the collected data was used to investigate the impact that revising similar executed activities have in the software effort estimates' accuracy.Obtained Results – The UTFPR computer students were divided into 14 groups. Eight of them showed accuracy increase in more than half of their estimates. Three of them had almost the same accuracy in more than half of their estimates. And only three of them had loss of accuracy in more than half of their estimates. Conclusion – Reviewing the similar executed software activities, when using Planning Poker, led to more accurate software estimates in most cases, and, because of that, can improve the software development process.