1000 resultados para Software - Qualidade - Controle
Resumo:
BRITTO, Ricardo S.; MEDEIROS, Adelardo A. D.; ALSINA, Pablo J. Uma arquitetura distribuída de hardware e software para controle de um robô móvel autônomo. In: SIMPÓSIO BRASILEIRO DE AUTOMAÇÃO INTELIGENTE,8., 2007, Florianópolis. Anais... Florianópolis: SBAI, 2007.
Resumo:
In this work, we present a hardware-software architecture for controlling the autonomous mobile robot Kapeck. The hardware of the robot is composed of a set of sensors and actuators organized in a CAN bus. Two embedded computers and eigth microcontroller based boards are used in the system. One of the computers hosts the vision system, due to the significant processing needs of this kind of system. The other computer is used to coordinate and access the CAN bus and to accomplish the other activities of the robot. The microcontroller-based boards are used with the sensors and actuators. The robot has this distributed configuration in order to exhibit a good real-time behavior, where the response time and the temporal predictability of the system is important. We adopted the hybrid deliberative-reactive paradigm in the proposed architecture to conciliate the reactive behavior of the sensors-actuators net and the deliberative activities required to accomplish more complex tasks
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
BRITTO, Ricardo S.; MEDEIROS, Adelardo A. D.; ALSINA, Pablo J. Uma arquitetura distribuída de hardware e software para controle de um robô móvel autônomo. In: SIMPÓSIO BRASILEIRO DE AUTOMAÇÃO INTELIGENTE,8., 2007, Florianópolis. Anais... Florianópolis: SBAI, 2007.
Resumo:
BRITTO, Ricardo S.; MEDEIROS, Adelardo A. D.; ALSINA, Pablo J. Uma arquitetura distribuída de hardware e software para controle de um robô móvel autônomo. In: SIMPÓSIO BRASILEIRO DE AUTOMAÇÃO INTELIGENTE,8., 2007, Florianópolis. Anais... Florianópolis: SBAI, 2007.
Resumo:
Software bug analysis is one of the most important activities in Software Quality. The rapid and correct implementation of the necessary repair influence both developers, who must leave the fully functioning software, and users, who need to perform their daily tasks. In this context, if there is an incorrect classification of bugs, there may be unwanted situations. One of the main factors to be assigned bugs in the act of its initial report is severity, which lives up to the urgency of correcting that problem. In this scenario, we identified in datasets with data extracted from five open source systems (Apache, Eclipse, Kernel, Mozilla and Open Office), that there is an irregular distribution of bugs with respect to existing severities, which is an early sign of misclassification. In the dataset analyzed, exists a rate of about 85% bugs being ranked with normal severity. Therefore, this classification rate can have a negative influence on software development context, where the misclassified bug can be allocated to a developer with little experience to solve it and thus the correction of the same may take longer, or even generate a incorrect implementation. Several studies in the literature have disregarded the normal bugs, working only with the portion of bugs considered severe or not severe initially. This work aimed to investigate this portion of the data, with the purpose of identifying whether the normal severity reflects the real impact and urgency, to investigate if there are bugs (initially classified as normal) that could be classified with other severity, and to assess if there are impacts for developers in this context. For this, an automatic classifier was developed, which was based on three algorithms (Näive Bayes, Max Ent and Winnow) to assess if normal severity is correct for the bugs categorized initially with this severity. The algorithms presented accuracy of about 80%, and showed that between 21% and 36% of the bugs should have been classified differently (depending on the algorithm), which represents somewhere between 70,000 and 130,000 bugs of the dataset.
Resumo:
The spread of wireless networks and growing proliferation of mobile devices require the development of mobility control mechanisms to support the different demands of traffic in different network conditions. A major obstacle to developing this kind of technology is the complexity involved in handling all the information about the large number of Moving Objects (MO), as well as the entire signaling overhead required to manage these procedures in the network. Despite several initiatives have been proposed by the scientific community to address this issue they have not proved to be effective since they depend on the particular request of the MO that is responsible for triggering the mobility process. Moreover, they are often only guided by wireless medium statistics, such as Received Signal Strength Indicator (RSSI) of the candidate Point of Attachment (PoA). Thus, this work seeks to develop, evaluate and validate a sophisticated communication infrastructure for Wireless Networking for Moving Objects (WiNeMO) systems by making use of the flexibility provided by the Software-Defined Networking (SDN) paradigm, where network functions are easily and efficiently deployed by integrating OpenFlow and IEEE 802.21 standards. For purposes of benchmarking, the analysis was conducted in the control and data planes aspects, which demonstrate that the proposal significantly outperforms typical IPbased SDN and QoS-enabled capabilities, by allowing the network to handle the multimedia traffic with optimal Quality of Service (QoS) transport and acceptable Quality of Experience (QoE) over time.
Resumo:
Este trabalho apresenta uma ferramenta para gerenciamento de projetos, priorizando as fases de planejamento e o controle do desenvolvimento de software. Ao efetuar o planejamento de um projeto é necessário estimar o prazo, o custo e o esforço necessário, aplicando técnicas já aprovadas, existentes na literatura, tais como: Estimativa do Esforço, Estimativa de Putnam, Modelo COCOMO, Análise de Pontos por Função, Pontos de Particularidade e PSP. É necessária a utilização de uma ferramenta que automatizem o processo de estimativa. Hoje no mercado, encontram-se várias ferramentas de estimativas, tais como: ESTIMACS, SLIM, SPQR/20, ESTIMATE Professional. O controle do desenvolvimento do projeto está relacionado ao acompanhamento do projeto, do profissional e da própria estimativa de custo e esforço de desenvolvimento. Nenhuma das ferramentas estudadas permitiu o controle do projeto por parte da gerência, por isto esta se propondo o desenvolvimento uma nova ferramenta que permita o planejamento e controle do processo de desenvolvimento. Esta ferramenta deve permitir a comparação entre as diversas técnicas de estimativas, desde que baseadas na mesma medida de tamanho: pontos por função. Para exemplificar o uso desta ferramenta, foram aplicados dois estudos de casos desenvolvidos pela empresa Newsoft Consultoria de Informática.
Resumo:
Unidade 1
Resumo:
O item não apresenta o texto completo, para aquisição do livro na íntegra você poderá acessar a Editora da UFSCar por meio do link: www.editora.ufscar.br
Resumo:
A introdução do assunto qualidade, segundo as necessidades de mercado abre espaço para a discussão da qualidade como necessidade pessoal, e também para a formação do cidadão/profissional, além de introduzir assuntos específicos de administração de empresas. Dessa forma, foi oferecida uma disciplina optativa para os alunos do Instituto de Química do Campus de Araraquara, abordando o tema Qualidade e foi denominada "Gestão da Qualidade" por três anos seguidos. Da avaliação geral do curso extraiu-se que ele deveria ser realizado sempre, que o tema é atual e relevante e contribui para a formação profissional/pessoal. Com relação ao comprometimento com o curso de graduação, cerca de metade dos alunos assume o seu comprometimento com os estudos e os restantes dizem estarem somente envolvidos. Conclui-se, portanto que o curso atingiu os seus objetivos propostos, introduziu os principais conceitos de qualidade segundo as normas da qualidade da série ISO 9000 e suscitou a discussão da formação do aluno/profissional/cidadão.
Resumo:
O avanço da mecanização na colheita da cana-de-açúcar (Saccharum spp.) proporcionou o uso de novas tecnologias e ganho em produtividade para a cultura. O controle da qualidade do processo de colheita da cana-de-açúcar é fundamental para reduzir as perdas. Este trabalho teve o objetivo de avaliar as perdas na colheita mecanizada de cana-de-açúcar, utilizando-as como indicadores de qualidade do processo de colheita. Os dados foram coletados em duas propriedades próximas a Jaboticabal - SP, com a variedade SP80-3280, em 3º e 4º cortes. Caracterizou-se o porte do canavial e, após a colheita, demarcou-se área de 1,5 ha, sendo demarcados 25 pontos, espaçados de 12 x 50 m, quantificando-se as perdas visíveis. Posteriormente, foi aplicado o controle estatístico do processo pela média, que consta de três vezes o desvio-padrão para mais ou para menos, sendo esses os limites superior e inferior de controle, respectivamente. A média das perdas de pedaço solto foi estatisticamente maior do que as médias de perdas em pedaço fixo, cana inteira, cana-ponta e toco. A ocorrência de perdas em rebolo estilhaçado foi menor para o 4º corte em relação ao 3º corte, enquanto as perdas em pedaço fixo e toco foram menores no 3º corte, comparadas às perdas no 4º corte. Em cada corte, as médias para as perdas totais estiveram próximas dos valores encontrados na bibliografia. Pedaço solto foi a variável de perdas visíveis com maior percentagem de ocorrência. As perdas demonstraram que a colheita mecanizada não se encontra sob controle estatístico de processo.
Resumo:
Este artigo questiona a validade de estimativas de incerteza (dispersão, variância e seus correlatos, como precisão, desvio padrão, etc.) de medição e incerteza de amostragem, bem como sua validade em verificações de conformidade. Obteve tendências de acréscimo ou comportamento em leque em micotoxinas, sódio, óleos graxos e curvas de calibração para carotenoides em ensaios de proficiência, experimentos de precisão de instituições consagradas ou acreditadas e curvas de calibração, o que invalida diversas estimativas de incerteza de medição. Questionou e recalculou resultados do Guia de Incerteza de Amostragem, demonstrando inadequações teóricas e concluiu por sua invalidade. Propôs sistema de estimação voltada para o alimento/processo que se pesquisa através de plano amostral normalizado ou especificamente elaborado para fim de verificação de conformidade. Finalmente, traz as regras decisórias estocásticas para verificação de conformidade em alimentos e diversos outros produtos.
Resumo:
Através da utilização de sistemas de controle informatizados, indústrias buscam uma caracterização mais completa de seus processos, gerando, freqüentemente, um grande volume de dados acerca de inúmeras variáveis de desempenho dos processos. Entretanto essa grande massa de dados é subaproveitada, visto que as cartas de controle multivariadas tradicionais, tais como as cartas de Hotelling, MCUSUM e MEWMA não são suficientemente robustas para tratar com um grande número de variáveis correlacionadas, pois foram concebidas para monitorar um número reduzido de variáveis de qualidade do produto final. Diante disso, ferramentas multivariadas mais robustas, que incorporam essas informações, vêm sendo desenvolvidas; dentre estas, destaca-se a Multiway Principal Component Analysis (Análise de Componentes Principais Multidirecionais; ACPM). Neste trabalho, apresenta-se a base teórica para a elaboração de uma carta de controle a partir da estratégia ACPM, para monitoramento on-line de processos em bateladas. Nesses processos, aferições freqüentes de variáveis de processo são disponibilizadas durante a realização de cada batelada. As cartas de controle baseadas em ACPM permitem o tratamento de variáveis autocorrelacionadas, com médias que descrevem trajetórias não lineares se observadas em momentos seqüenciados no tempo. Tais variáveis aparecem com freqüência em processos por bateladas. Uma aplicação das cartas de controle baseadas em ACPM em um sub-processo de produção de borracha para cobertura de pneus ilustra a utilização da ferramenta.
Resumo:
Conforme os sites Web crescem em número de páginas, sua manutenção torna-se mais complicada. Assim, os administradores dos sites de métodos e ferramentas que tornem sua manutenção mais organizada e automatizada. Entretanto, a criação de tais mecanismos é dificultada pelo formato das páginas Web (HTML), que mistura o conteúdo e a formatação da página em um mesmo arquivo. Uma solução usual para esse problema é separar estes componentes da página em documentos XML (conteúdo) e folhas de estilo XSLT (formatação). Pode-se notar várias semelhanças entre páginas Web e programas de computador (software), pois ambos têm componentes de tipos diferentes que evoluem com o tempo. Assim, técnicas oriundas da área de Gerência de Configuração de Software, como controle de versões, podem ser adaptadas para auxiliar a manuutenção de sites. Além da melhoria na manutenção, outra necessidade cada vez mais comum aos sites é a adaptação automática das páginas. Por meio desta, páginas podem ser automaticamente adequadas (adaptadas) e determinado usuário, o que potencialmente atrai um maior número de visitantes ao site. Se forem mantidas versões de cada componente de página, pode-se combiná-las para gerar muitas páginas alternativas. Através da escolha cuidadosa das versões dos ocmponentes que compõem uma página, é possível obter páginas adaptadas automaticamente. Na área de Gerência de Configuração de Software, o chamado proceesso de configuração é responsável por selecionar automaticamente versões de módulos para compor um programa completo. O presente trabalho propõe uma infra-estrutura para um servidor Web que realiza controle de versões e suporta a adaptação de páginas Web de forma transparente ao visitante. Para tanto, é projetado um modelo de versões de páginas que separa conteúdo e formatação em componentes distintos. É proposto um processo de configuração que é responsável pela geração de páginas dinâmicas, o que é suportado por informações presentes no modelo de versões. Os autores de páginas e o próprio servidor Web podem interferir nas escolhas doprocesso de configuração, fornecendo critérios de seleção de versões. Esses critérios guiam as escolhas do processo de configuração, pois representam características que as versões escolhidas devem (necessariamente ou preferencialmente) apresentar.