954 resultados para Computer software - Quality control
Resumo:
At the core of the analysis task in the development process is information systems requirements modelling, Modelling of requirements has been occurring for many years and the techniques used have progressed from flowcharting through data flow diagrams and entity-relationship diagrams to object-oriented schemas today. Unfortunately, researchers have been able to give little theoretical guidance only to practitioners on which techniques to use and when. In an attempt to address this situation, Wand and Weber have developed a series of models based on the ontological theory of Mario Bunge-the Bunge-Wand-Weber (BWW) models. Two particular criticisms of the models have persisted however-the understandability of the constructs in the BWW models and the difficulty in applying the models to a modelling technique. This paper addresses these issues by presenting a meta model of the BWW constructs using a meta language that is familiar to many IS professionals, more specific than plain English text, but easier to understand than the set-theoretic language of the original BWW models. Such a meta model also facilitates the application of the BWW theory to other modelling techniques that have similar meta models defined. Moreover, this approach supports the identification of patterns of constructs that might be common across meta models for modelling techniques. Such findings are useful in extending and refining the BWW theory. (C) 2002 Elsevier Science Ltd. All rights reserved.
Resumo:
Within the information systems field, the task of conceptual modeling involves building a representation of selected phenomena in some domain. High-quality conceptual-modeling work is important because it facilitates early detection and correction of system development errors. It also plays an increasingly important role in activities like business process reengineering and documentation of best-practice data and process models in enterprise resource planning systems. Yet little research has been undertaken on many aspects of conceptual modeling. In this paper, we propose a framework to motivate research that addresses the following fundamental question: How can we model the world to better facilitate our developing, implementing, using, and maintaining more valuable information systems? The framework comprises four elements: conceptual-modeling grammars, conceptual-modeling methods, conceptual-modeling scripts, and conceptual-modeling contexts. We provide examples of the types of research that have already been undertaken on each element and illustrate research opportunities that exist.
Resumo:
The Agricultural Production Systems Simulator (APSIM) is a modular modelling framework that has been developed by the Agricultural Production Systems Research Unit in Australia. APSIM was developed to simulate biophysical process in farming systems, in particular where there is interest in the economic and ecological outcomes of management practice in the face of climatic risk. The paper outlines APSIM's structure and provides details of the concepts behind the different plant, soil and management modules. These modules include a diverse range of crops, pastures and trees, soil processes including water balance, N and P transformations, soil pH, erosion and a full range of management controls. Reports of APSIM testing in a diverse range of systems and environments are summarised. An example of model performance in a long-term cropping systems trial is provided. APSIM has been used in a broad range of applications, including support for on-farm decision making, farming systems design for production or resource management objectives, assessment of the value of seasonal climate forecasting, analysis of supply chain issues in agribusiness activities, development of waste management guidelines, risk assessment for government policy making and as a guide to research and education activity. An extensive citation list for these model testing and application studies is provided. Crown Copyright (C) 2002 Published by Elsevier Science B.V. All rights reserved.
Resumo:
RESUMO: Hoje em dia o software tornou-se num elemento útil na vida das pessoas e das empresas. Existe cada vez mais a necessidade de utilização de aplicações de qualidade, com o objectivo das empresas se diferenciarem no mercado. As empresas produtoras de software procuram aumentar a qualidade nos seus processos de desenvolvimento, com o objectivo de garantir a qualidade do produto final. A dimensão e complexidade do software aumentam a probabilidade do aparecimento de não-conformidades nestes produtos, resultando daí o interesse pela actividade de testes de software ao longo de todo o seu processo de concepção, desenvolvimento e manutenção. Muitos projectos de desenvolvimento de software são entregues com atraso por se verificar que na data prevista para a sua conclusão não têm um desempenho satisfatório ou por não serem confiáveis, ou ainda por serem difíceis de manter. Um bom planeamento das actividades de produção de software significa usualmente um aumento da eficiência de todo o processo produtivo, pois poderá diminuir a quantidade de defeitos e os custos que decorrem da sua correcção, aumentando a confiança na utilização do software e a facilidade da sua operação e manutenção. Assim se reconhece a importância da adopção de boas práticas no desenvolvimento do software. Para isso deve-se utilizar uma abordagem sistemática e organizada com o intuito de produzir software de qualidade. Esta tese descreve os principais modelos de desenvolvimento de software, a importância da engenharia dos requisitos, os processos de testes e principais validações da qualidade de software e como algumas empresas utilizam estes princípios no seu dia-a-dia, com o intuito de produzir um produto final mais fiável. Descreve ainda alguns exemplos como complemento ao contexto da tese. ABSTRACT: Nowadays the software has become a useful element in people's lives and it is increasingly a need for the use of quality applications from companies in order to differentiate in the market. The producers of software increase quality in their development processes, in order to ensuring final product quality. The complexity and size of software, increases the probability of the emergence of non-conformities in these products, this reason increases of interest in the business of testing software throughout the process design, development and maintenance. Many software development projects are postpone because in the date for delivered it’s has not performed satisfactorily, not to be trusted, or because it’s harder to maintain. A good planning of software production activities, usually means an increase in the efficiency of all production process, because it can decrease the number of defects and the costs of it’s correction, increasing the reliability of software in use, and make it easy to operate and maintenance. In this manner, it’s recognized the importance of adopting best practices in software development. To produce quality software, a systematic and organized approach must be used. This thesis describes the main models of software development, the importance of requirements engineering, testing processes and key validation of software quality and how some companies use these principles daily, in order to produce a final product more reliable. It also describes some examples in addition to the context of this thesis.
Resumo:
OBJECTIVE: The assessment of an easy to prepare and low cost control material for Hematology, available for manual and automated methods. MATERIAL AND METHOD: Aliquots of stabilized whole blood were prepared by partial fixation with aldehydes; the stability at different temperatures (4. 20 and 37 °C) during periods of up to 8-9 weeks and aliquot variability with both methods were controlled. RESULTS: Aliquot variability with automated methods at day 1, expressed as CV% (coefficient of variation) was: white blood cells (WBC) 2.7, red blood cells (RBC) 0.7, hemoglobin (Hb) 0.6, hematocrit (Hct) 0.7, mean cell volume (MCV) 0.3, mean cell hemoglobin (MCH) 0.6, mean cell hemoglobin concentration (MCHC) 0.7, and platelets (PLT) 4.6. The CV (coefficient of variation) percentages obtained with manual methods in one of the batches were: WBC 23, Hct 2.8, Hb 4.5, MCHC 5.9, PLT 41. Samples stored at 4ºC and 20ºC showed good stability, only a very low initial hemolysis being observed, whereas those stored at 37ºC deteriobed a rapidly (metahemoglobin formation, aggregation of WBC and platelets, as well as alteration of erythrocyte indexes). CONCLUSIONS: It was confirmed that, as long as there is no exposure to high temperatures during distribution, this material is stable, allowing assessment, both esternal and internal, for control purposes, with acceptable reproductivity, both for manual and auttomatic methods.
Resumo:
OBJECTIVE: To evaluate the microbiological quality of treated and untreated water samples came from urban and rural communities and to examine the relationship between coliforms occurrence and average water temperature, and a comparison of the rainfall levels. METHODS: A sample of 3,073 untreated and treated (chlorinated) water from taps (1,594), reservoir used to store treated water (1,033), spring water (96) and private well (350) collected for routine testing between 1996 and 1999 was analyzed by the multiple dilution tube methods used to detect the most probable number of total and fecal coliforms. These samples were obtained in the region of Maringá, state of Paraná, Brazil. RESULTS: The highest numbers water samples contaminated by TC (83%) and FC (48%) were found in the untreated water. TC and FC in samples taken from reservoirs used to store treated water was higher than that from taps midway along distribution lines. Among the treated water samples examined, coliform bacteria were found in 171 of the 1,033 sampling reservoirs. CONCLUSIONS: Insufficient treatment or regrowth is suggested by the observation that more than 17% of these treated potable water contained coliform. TC and FC positive samples appear to be similar and seasonally influenced in treated water. Two different periods must be considered for the occurrence of both TC and FC positive samples: (i) a warm-weather period (September-March) with high percentage of contaminated samples; and (ii) cold-weather period (April-August) were they are lower. Both TC and TF positive samples declined with the decreased of water temperature.
Resumo:
Mestrado em Radiações Aplicadas às Tecnologias da Saúde. Área de especialização: Imagem Digital.
Resumo:
A crescente necessidade imposta pela gama de aplicações existentes, torna o estudo dos veículos autónomos terrestres um objecto de grande interesse na investigação. A utilização de robots móveis autónomos originou quer um incremento de eficiência e eficácia em inúmeras aplicações como permite a intervenção humana em contextos de elevado risco ou inacessibilidade. Aplicações de monitorização e segurança constituem um foco de utilização deste tipo de sistemas quer pela automatização de procedimentos quer pelos ganhos de eficiência (desde a eficiência de soluções multi-veículo à recolha e detecção de informação). Neste contexto, esta dissertação endereça o problema de concepção, o desenvolvimento e a implementação de um veículo autónomo terrestre, com ênfase na perspectiva de controlo. Este projecto surge pois no âmbito do desenvolvimento de um novo veículo terrestre no Laboratório de Sistemas Autónomos (LSA) do Instituto Superior de Engenharia do Porto (ISEP). É efectuado um levantamento de requisitos do sistema tendo por base a caracterização de aplicações de monitorização, transporte e vigilância em cenários exteriores pouco estruturados. Um estado da arte em veículos autónomos terrestres é apresentado bem como conceitos e tecnologias relevantes para o controlo deste tipo de sistemas. O problema de controlo de locomoção é abordado tendo em particular atenção o controlo de motores DC brushless. Apresenta-se o projecto do sistema de controlo do veículo, desde o controlo de tracção e direcção, ao sistema computacional de bordo responsável pelo controlo e supervisão da missão. A solução adoptada para a implementação mecânica da estrutura do veículo consiste numa plataforma de veículo todo terreno (motociclo 4X4) disponível comercialmente. O projecto e implementação do sistema de controlo de direcção para o mesmo é apresentado quer sob o ponto de vista da solução electromecânica, quer pelo subsistema de hardware de controlo embebido e respectivo software. Tendo em vista o controlo de tracção são apresentadas duas soluções. Uma passando pelo estudo e desenvolvimento de um sistema de raiz capaz de controlar motores BLDC de elevada potência, a segunda passando pela utilização de uma solução através de um controlador externo. A gestão energética do sistema é abordada através do projecto e implementação de um sistema de controlo e distribuição de energia específico. A implementação do veículo foi alcançada nas suas vertentes mecânica, de hardware e software, envolvendo a integração dos subsistemas projectados especialmente bem como a implementação do sistema computacional de bordo. São apresentados resultados de validação do controlo de locomoção básico quer em simulação quer descritos os testes e validações efectuados no veículo real. No presente trabalho, são também tiradas algumas conclusões sobre o desenvolvimento do sistema e sua implementação bem como perspectivada a sua evolução futura no contexto de missões coordenadas de múltiplos veículos robóticos.
Resumo:
A realização desta Tese/Dissertação tem como objectivo o estudo e implementação piloto de um Sistema de Supervisão e Aquisição de dados (SCADA) na Swedwood Portugal, na qual exerço as funções de Engenheiro de Processo nas linhas de montagem de mobiliário. Foi efectuado um estudo das necessidades da empresa relativamente às melhorias dos processos das linhas de montagem, com o intuito de melhorar a montagem do semi-produto, a nível de qualidade das matérias-primas, operação e desempenho de equipamentos. Chegou-se à conclusão que existe uma grande necessidade de controlar a qualidade das matérias-primas utilizadas na construção do semi-produto em tempo real, de modo a que seja possível diminuir a complexidade na recolha atempada de amostras por parte dos elementos de operação e diminuir o atraso da entrega de resultados das amostras por parte do laboratório. A colagem é um elemento crítico na montagem do semi-produto, devido às variações de viscosidade da cola, consequência das variações climatéricas a que foi sujeita, desde a saída do fornecedor até à sua utilização nas linhas de montagem. Para tal concebeu-se uma solução para dar uma resposta mais rápida no controlo de qualidade da cola à base de acetato de polivinil (PVAC), ou seja, a implementação piloto de um sistema SCADA na sala de colas, de modo a que haja um controlo a nível de temperatura e humidade, controlo de viscosidade em tempo real e controlo do nível da cola na cuba, fazendo com que haja só uma supervisão por parte dos elementos de operação. Optou-se por um conjunto de hardware e software da SIMATIC desenvolvido pela Siemens, para elaboração da programação e desenvolvimento da Interface Homem Máquina (HMI).
Resumo:
Este projecto surgiu no contexto da solicitação de um dos clientes da empresa Castros Iluminações que pretendia um sistema de iluminação decorativa (baseada em LED) de dois conjuntos de 288 janelas, pertencendo cada conjunto a uma fachada diferente do edifício. Este sistema teria que prever a possibilidade de controlar a cor de cada janela individualmente, dando ao cliente a possibilidade de alterar o ambiente decorativo das fachadas do edifício. A utilização de comunicação sem fios foi justificada pela necessidade de evitar a quantidade enorme de cabos que seria necessário passar utilizando os sistemas comerciais convencionais e a impossibilidade de os esconder. Esta solução foi pensada para ser implementada num edifício com 14 Andares, facto que por si só inviabiliza a passajem de cabos. Para interligar todos os dispositivos de iluminação decorativa com um controlador portátil, e eliminar os problemas ligados à cablagem, foi utilizado o protocolo de comunicações sem fios ZigBee™. A escolha recaiu neste protocolo devido a factores como os seus baixos consumos, simplicidade do protocolo comparativamente com outras redes e o seu baixo custo. No desenvolvimento deste projecto foi utilizada a stack da Microchip©, versão gratuita, disponibilizada na internet e os seus transceivers de comunicação Zigbee™, MRF24j40MA. Para fazer a interface de comunicação com o utilizador, foi desenvolvida uma aplicação de Software para correr em computadores com ambiente Windows™. Esta aplicação foi desenvolvida em Visual Studio™ utilizando a linguagem C#. Foram efectuados alguns testes para se perceber a eficiência e robustez da comunicação ZigBee™ e apesar do número de dispositivos disponíveis para ensaios ser muito reduzido, foi possível verificar que, mesmo funcionando correctamente, o desempenho do sistema poderá ser melhorado, quer seja a nível da gestão das comunicações, quer a nível do software informático para controlo do ambiente decorativo das fachadas do edifício. O sistema, no actual estado de desenvolvimento, permite controlar a cor dos vários dispositivos da rede através do computador, com uma resolução de 24bits. A aplicação desenvolvida em Visual Studio™ permite controlar de forma simples e intuitiva para o utilizador, a cor do material iluminativo dos vários dispositivos da rede.
Resumo:
A crescente complexidade dos sistemas electrónicos associada a um desenvolvimento nas tecnologias de encapsulamento levou à miniaturização dos circuitos integrados, provocando dificuldades e limitações no diagnóstico e detecção de falhas, diminuindo drasticamente a aplicabilidade dos equipamentos ICT. Como forma de lidar com este problema surgiu a infra-estrutura Boundary Scan descrita na norma IEEE1149.1 “Test Access Port and Boundary-Scan Architecture”, aprovada em 1990. Sendo esta solução tecnicamente viável e interessante economicamente para o diagnóstico de defeitos, efectua também outras aplicações. O SVF surgiu do desejo de incutir e fazer com que os fornecedores independentes incluíssem a norma IEEE 1149.1, é desenvolvido num formato ASCII, com o objectivo de enviar sinais, aguardar pela sua resposta, segundo a máscara de dados baseada na norma IEEE1149.1. Actualmente a incorporação do Boundary Scan nos circuitos integrados está em grande expansão e consequentemente usufrui de uma forte implementação no mercado. Neste contexto o objectivo da dissertação é o desenvolvimento de um controlador boundary scan que implemente uma interface com o PC e possibilite o controlo e monitorização da aplicação de teste ao PCB. A arquitectura do controlador desenvolvido contém um módulo de Memória de entrada, um Controlador TAP e uma Memória de saída. A implementação do controlador foi feita através da utilização de uma FPGA, é um dispositivo lógico reconfiguráveis constituído por blocos lógicos e por uma rede de interligações, ambos configuráveis, que permitem ao utilizador implementar as mais variadas funções digitais. A utilização de uma FPGA tem a vantagem de permitir a versatilidade do controlador, facilidade na alteração do seu código e possibilidade de inserir mais controladores dentro da FPGA. Foi desenvolvido o protocolo de comunicação e sincronização entre os vários módulos, permitindo o controlo e monitorização dos estímulos enviados e recebidos ao PCB, executados automaticamente através do software do Controlador TAP e de acordo com a norma IEEE 1149.1. A solução proposta foi validada por simulação utilizando o simulador da Xilinx. Foram analisados todos os sinais que constituem o controlador e verificado o correcto funcionamento de todos os seus módulos. Esta solução executa todas as sequências pretendidas e necessárias (envio de estímulos) à realização dos testes ao PCB. Recebe e armazena os dados obtidos, enviando-os posteriormente para a memória de saída. A execução do trabalho permitiu concluir que os projectos de componentes electrónicos tenderão a ser descritos num nível de abstracção mais elevado, recorrendo cada vez mais ao uso de linguagens de hardware, no qual o VHDL é uma excelente ferramenta de programação. O controlador desenvolvido será uma ferramenta bastante útil e versátil para o teste de PCBs e outras funcionalidades disponibilizadas pelas infra-estruturas BS.
Resumo:
O betão é o material de construção feito pelo Homem mais utilizado no mundo. A sua composição é um processo complexo que exige um conhecimento teórico sólido e muita experiência prática, pelo que poucas pessoas estão habilitadas para o fazer e são muito requisitadas. No entanto não existe muita oferta actual de software que contemple alguns dos aspectos importantes da composição do betão, nomeadamente para o contexto europeu. Nesse sentido, foi desenvolvido um sistema de apoio à decisão chamado Betacomp, baseado num sistema pericial, para realizar estudos de composição de betão. Este contempla as normas legais portuguesas e europeias, e a partir da especificação do betão apresenta toda a informação necessária para se produzir um ensaio de betão. A aquisição do conhecimento necessário ao sistema contou com a colaboração de um especialista com longa e comprovada experiência na área da formulação e produção do betão, tendo sido construída uma base de conhecimento baseada em regras de produção no formato drl (Drools Rule Language). O desenvolvimento foi realizado na plataforma Drools.net, em C# e VB.net. O Betacomp suporta os tipos de betão mais comuns, assim como adições e adjuvantes, sendo aplicável numa grande parte dos cenários de obra. Tem a funcionalidade de fornecer explicações sobre as suas decisões ao utilizador, auxiliando a perceber as conclusões atingidas e simultaneamente pode funcionar como uma ferramenta pedagógica. A sua abordagem é bastante pragmática e de certo modo inovadora, tendo em conta parâmetros novos, que habitualmente não são considerados neste tipo de software. Um deles é o nível do controlo de qualidade do produtor de betão, sendo feito um ajuste de compensação à resistência do betão a cumprir, proporcional à qualidade do produtor. No caso dos produtores de betão, permite que indiquem os constituintes que já possuem para os poderem aproveitar (caso não haja impedimentos técnicos) , uma prática muito comum e que permitirá eventualmente uma aceitação maior da aplicação, dado que reflecte a forma habitual de agir nos produtores.
Resumo:
X-ray fluoroscopy is essential in both diagnosis and medical intervention, although it may contribute to significant radiation doses to patients that have to be optimised and justified. Therefore, it is crucial to the patient to be exposed to the lowest achievable dose without compromising the image quality. The purpose of this study was to perform an analysis of the quality control measurements, particularly dose rates, contrast and spatial resolution of Portuguese fluoroscopy equipment and also to provide a contribution to the establishment of reference levels for the equipment performance parameters. Measurements carried out between 2007 and 2013 on 143 fluoroscopy equipment distributed by 34 nationwide health units were analysed. The measurements suggest that image quality and dose rates of Portuguese equipment are congruent with other studies, and in general, they are as per the Portuguese law. However, there is still a possibility of improvements intending optimisation at a national level.
Resumo:
Background: In Angola, malaria is an endemic disease having a major impact on the economy. The WHO recommends testing for all suspected malaria cases, to avoid the presumptive treatment of this disease. In malaria endemic regions laboratory technicians must be very comfortable with microscopy, the golden standard for malaria diagnosis, to avoid the incorrect diagnosis. The improper use of medication promotes drug resistance and undesirable side effects. The present study aims to assess the impact of a three-day refresher course on the knowledge of technicians, quality of blood smears preparation and accuracy of microscopy malaria diagnosis, using qPCR as reference method. Methods: This study was implemented in laboratories from three hospitals in different provinces of Angola: Bengo, Benguela and Luanda. In each laboratory samples were collected before and after the training course (slide with thin and thick blood smears, a dried blood spot and a form). The impact of the intervention was evaluated through a written test, the quality of slide preparation and the performance of microscopy. Results: It was found a significant increase on the written test median score, from 52.5% to 65.0%. A total of 973 slides were analysed to evaluate the quality of thick and thin blood smears. Considering all laboratories there was a significant increase in quality of thick and thin blood smears. To determine the performance of microscopy using qPCR as the reference method we used 1,028 samples. Benguela presented the highest values for specificity, 92.9% and 98.8% pre and post-course, respectively and for sensitivity the best pre-course was Benguela (75.9%) and post-course Luanda (75.0%). However, no significant increase in sensitivity and specificity after the training course was registered in any laboratory analysed. Discussion: The findings of this study support the need of continuous refresher training for microscopists and other laboratory staff. The laboratories should have a quality control programme to supervise the diagnosis and also to assess the periodicity of new training. However, other variables needed to be considered to have a correct malaria diagnosis, such as adequate equipment and reagents for staining and visualization, good working conditions, motivated and qualified personnel.