893 resultados para Statistical process control


Relevância:

80.00% 80.00%

Publicador:

Resumo:

Colour graphics subsystems can be used in a variety of applications such as high-end business graphics, low-end scientific computations, and for realtime display of process control diagrams. The design of such a subsystem is shown. This subsystem can be added to any Multibus-compatible microcomputer system. The use of an NEC 7220 graphics display controller chip has simplified the design to a considerable extent. CGRAM (CORE graphics on Multibus), a comprehensive subset of the CORE graphics standard package, is supported on the subsystem.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Onboard spacecraft computing system is a case of a functionally distributed system that requires continuous interaction among the nodes to control the operations at different nodes. A simple and reliable protocol is desired for such an application. This paper discusses a formal approach to specify the computing system with respect to some important issues encountered in the design and development of a protocol for the onboard distributed system. The issues considered in this paper are concurrency, exclusiveness and sequencing relationships among the various processes at different nodes. A 6-tuple model is developed for the precise specification of the system. The model also enables us to check the consistency of specification and deadlock caused due to improper specification. An example is given to illustrate the use of the proposed methodology for a typical spacecraft configuration. Although the theory is motivated by a specific application the same may be applied to other distributed computing system such as those encountered in process control industries, power plant control and other similar environments.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The safety of food has become an increasingly interesting issue to consumers and the media. It has also become a source of concern, as the amount of information on the risks related to food safety continues to expand. Today, risk and safety are permanent elements within the concept of food quality. Safety, in particular, is the attribute that consumers find very difficult to assess. The literature in this study consists of three main themes: traceability; consumer behaviour related to both quality and safety issues and perception of risk; and valuation methods. The empirical scope of the study was restricted to beef, because the beef labelling system enables reliable tracing of the origin of beef, as well as attributes related to safety, environmental friendliness and animal welfare. The purpose of this study was to examine what kind of information flows are required to ensure quality and safety in the food chain for beef, and who should produce that information. Studying the willingness to pay of consumers makes it possible to determine whether the consumers consider the quantity of information available on the safety and quality of beef sufficient. One of the main findings of this study was that the majority of Finnish consumers (73%) regard increased quality information as beneficial. These benefits were assessed using the contingent valuation method. The results showed that those who were willing to pay for increased information on the quality and safety of beef would accept an average price increase of 24% per kilogram. The results showed that certain risk factors impact consumer willingness to pay. If the respondents considered genetic modification of food or foodborne zoonotic diseases as harmful or extremely harmful risk factors in food, they were more likely to be willing to pay for quality information. The results produced by the models thus confirmed the premise that certain food-related risks affect willingness to pay for beef quality information. The results also showed that safety-related quality cues are significant to the consumers. In the first place, the consumers would like to receive information on the control of zoonotic diseases that are contagious to humans. Similarly, other process-control related information ranked high among the top responses. Information on any potential genetic modification was also considered important, even though genetic modification was not regarded as a high risk factor.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

A central tenet in the theory of reliability modelling is the quantification of the probability of asset failure. In general, reliability depends on asset age and the maintenance policy applied. Usually, failure and maintenance times are the primary inputs to reliability models. However, for many organisations, different aspects of these data are often recorded in different databases (e.g. work order notifications, event logs, condition monitoring data, and process control data). These recorded data cannot be interpreted individually, since they typically do not have all the information necessary to ascertain failure and preventive maintenance times. This paper presents a methodology for the extraction of failure and preventive maintenance times using commonly-available, real-world data sources. A text-mining approach is employed to extract keywords indicative of the source of the maintenance event. Using these keywords, a Naïve Bayes classifier is then applied to attribute each machine stoppage to one of two classes: failure or preventive. The accuracy of the algorithm is assessed and the classified failure time data are then presented. The applicability of the methodology is demonstrated on a maintenance data set from an Australian electricity company.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Cord blood is a well-established alternative to bone marrow and peripheral blood stem cell transplantation. To this day, over 400 000 unrelated donor cord blood units have been stored in cord blood banks worldwide. To enable successful cord blood transplantation, recent efforts have been focused on finding ways to increase the hematopoietic progenitor cell content of cord blood units. In this study, factors that may improve the selection and quality of cord blood collections for banking were identified. In 167 consecutive cord blood units collected from healthy full-term neonates and processed at a national cord blood bank, mean platelet volume (MPV) correlated with the numbers of cord blood unit hematopoietic progenitors (CD34+ cells and colony-forming units); this is a novel finding. Mean platelet volume can be thought to represent general hematopoietic activity, as newly formed platelets have been reported to be large. Stress during delivery is hypothesized to lead to the mobilization of hematopoietic progenitor cells through cytokine stimulation. Accordingly, low-normal umbilical arterial pH, thought to be associated with perinatal stress, correlated with high cord blood unit CD34+ cell and colony-forming unit numbers. The associations were closer in vaginal deliveries than in Cesarean sections. Vaginal delivery entails specific physiological changes, which may also affect the hematopoietic system. Thus, different factors may predict cord blood hematopoietic progenitor cell numbers in the two modes of delivery. Theoretical models were created to enable the use of platelet characteristics (mean platelet volume) and perinatal factors (umbilical arterial pH and placental weight) in the selection of cord blood collections with high hematopoietic progenitor cell counts. These observations could thus be implemented as a part of the evaluation of cord blood collections for banking. The quality of cord blood units has been the focus of several recent studies. However, hemostasis activation during cord blood collection is scarcely evaluated in cord blood banks. In this study, hemostasis activation was assessed with prothrombin activation fragment 1+2 (F1+2), a direct indicator of thrombin generation, and platelet factor 4 (PF4), indicating platelet activation. Altogether three sample series were collected during the set-up of the cord blood bank as well as after changes in personnel and collection equipment. The activation decreased from the first to the subsequent series, which were collected with the bank fully in operation and following international standards, and was at a level similar to that previously reported for healthy neonates. As hemostasis activation may have unwanted effects on cord blood cell contents, it should be minimized. The assessment of hemostasis activation could be implemented as a part of process control in cord blood banks. Culture assays provide information about the hematopoietic potential of the cord blood unit. In processed cord blood units prior to freezing, megakaryocytic colony growth was evaluated in semisolid cultures with a novel scoring system. Three investigators analyzed the colony assays, and the scores were highly concordant. With such scoring systems, the growth potential of various cord blood cell lineages can be assessed. In addition, erythroid cells were observed in liquid cultures of cryostored and thawed, unseparated cord blood units without exogenous erythropoietin. This was hypothesized to be due to the erythropoietic effect of thrombopoietin, endogenous erythropoietin production, and diverse cell-cell interactions in the culture. This observation underscores the complex interactions of cytokines and supporting cells in the heterogeneous cell population of the thawed cord blood unit.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Among all methods of metal alloy slurry preparation, the cooling slope method is the simplest in terms of design and process control. The method involves pouring of the melt from top, down an oblique and channel shaped plate cooled from bottom by counter flowing water. The melt, while flowing down, partially solidifies and forms columnar dendrites on plate wall. These dendrites are broken into equiaxed grains and are washed away with melt. The melt, together with the equiaxed grains, forms semisolid slurry collected at the slope exit and cast into billets having non-dendritic microstructure. The final microstructure depends on several process parameters such as slope angle, slope length, pouring superheat, and cooling rate. The present work involves scaling analysis of conservation equations of momentum, energy and species for the melt flow down a cooling slope. The main purpose of the scaling analysis is to obtain a physical insight into the role and relative importance of each parameter in influencing the final microstructure. For assessing the scaling analysis, the trends predicted by scaling are compared against corresponding numerical results using an enthalpy based solidification model with incorporation of solid phase movement.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

A phase field modelling approach is implemented in the present study towards simulation of microstructure evolution during cooling slope semi solid slurry generation process of A380 Aluminium alloy. First, experiments are performed to evaluate the number of seeds required within the simulation domain to simulate near spherical microstructure formation, occurs during cooling slope processing of the melt. Subsequently, microstructure evolution is studied employing a phase field method. Simulations are performed to understand the effect of cooling rate on the slurry microstructure. Encouraging results are obtained from the simulation studies which are validated by experimental observations. The results obtained from mesoscopic phase field simulations are grain size, grain density, degree of sphericity of the evolving primary Al phase and the amount of solid fraction present within the slurry at different time frames. Effect of grain refinement also has been studied with an aim of improving the slurry microstructure further. Insight into the process has been obtained from the numerical findings, which are found to be useful for process control.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Earth abundant alternative chalcopyrite Cu2CoSnS4 (CCTS) thin films were deposited by a facile sol-gel process onto larger substrates. Temperature dependence of the process control of deposition and desired phase formations was studied in detail. Films were analyzed for complete transformation from amorphous to polycrystalline, with textured structures for stannite phase, as reflected from the X-ray diffraction and with nearly stoichiometric compositions of Cu:Co:Sn:S = 2:0:1:0:1:0:4:0 from EDAX analysis. Morphological investigations revealed that the CCTS films with larger grains, on the order of its thickness, were synthesized at higher temperature of 500 degrees C. The optimal band gap for application in photovoltaics was estimated to be 1.4 eV. Devices with SLG/CCTS/Al geometry were fabricated for real time demonstration of photoconductivity under A.M 1.5 G solar and 1064 rim infrared laser illuminations. A photodetector showed one order current amplification from similar to 1.9 X 10(-6) A in the dark to 2.2 x 10(-5) A and 9.8 X 10(-6) A under A.M 1.5 G illumination and 50 mW cm(-2) IR laser, respectively. Detector sensitivity, responsivity, external quantum efficiency, and gain were estimated as 4.2, 0.12 A/W, 14.74% and 14.77%, respectively, at 50 mW cm(-2) laser illuminations. An ON and OFF ratio of 2.5 proved that CCTS can be considered as a potential absorber in low cost photovoltaics applications.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

In the measurement of the Higgs Boson decaying into two photons the parametrization of an appropriate background model is essential for fitting the Higgs signal mass peak over a continuous background. This diphoton background modeling is crucial in the statistical process of calculating exclusion limits and the significance of observations in comparison to a background-only hypothesis. It is therefore ideal to obtain knowledge of the physical shape for the background mass distribution as the use of an improper function can lead to biases in the observed limits. Using an Information-Theoretic (I-T) approach for valid inference we apply Akaike Information Criterion (AIC) as a measure of the separation for a fitting model from the data. We then implement a multi-model inference ranking method to build a fit-model that closest represents the Standard Model background in 2013 diphoton data recorded by the Compact Muon Solenoid (CMS) experiment at the Large Hadron Collider (LHC). Potential applications and extensions of this model-selection technique are discussed with reference to CMS detector performance measurements as well as in potential physics analyses at future detectors.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Esta tese tem o objetivo geral de investigar a associação entre estresse e acidentes no trabalho em funcionários técnico-administrativos efetivos de uma universidade pública no Rio de Janeiro por meio de modelos multiníveis. Para alcançar tal objetivo, a tese foi distribuída em dois artigos. O primeiro artigo investiga a associação entre estresse e acidentes no trabalho considerando componentes hierárquicos da estrutura dos dados por meio de modelos multiníveis com funcionários no primeiro nível agrupados em setores de trabalho no segundo nível. O segundo artigo investiga o comportamento dos coeficientes fixos e aleatórios dos modelos multiníveis com classificação cruzada entre setores de trabalho e grupos ocupacionais em relação aos modelos multiníveis que consideram apenas componentes hierárquicos dos setores de trabalho, ignorando o ajuste dos grupos ocupacionais. O estresse psicossocial no trabalho foi abordado a partir das relações entre alta demanda psicológica e baixo controle do processo laboral, Estas dimensões foram captadas por meio da versão resumida da escala Karasek, que também contém informações sobre o apoio social no trabalho. Dimensões isoladas do estresse no trabalho (demanda e controle), razão entre demanda psicológica e controle do trabalho (Razão D/C) e o apoio social no trabalho foram mensurados no nível individual e nos setores de trabalho. De modo geral, os resultados destacam a demanda psicológica mensurada no nível individual como um importante fator associado à ocorrência de acidentes de trabalho. O apoio social no trabalho, mensurado no nível individual e no setor de trabalho, apresentou associação inversa à prevalência de acidentes de trabalho, sendo, no setor, acentuada entre as mulheres. Os resultados também mostram que os parâmetros fixos dos modelos com e sem classificação cruzada foram semelhantes e que, de modo geral, os erros padrões (EP) foram um pouco maiores nos modelos com classificação cruzada, apesar deste comportamento do EP não ter sido observado quando relacionado aos coeficientes fixos das variáveis agregadas no setor de trabalho. A maior distinção entre as duas abordagens foi observada em relação aos coeficientes aleatórios relacionados aos setores de trabalho, que alteraram substancialmente após ajustar o efeito da ocupação por meio dos modelos com classificação cruzada. Este estudo reforça a importância de características psicossociais na ocorrência de acidentes de trabalho e contribui para o conhecimento dessas relações a partir de abordagens analíticas que refinam a captação da estrutura de dependência dos indivíduos em seu ambiente de trabalho. Sugere-se a realização de outros estudos com metodologia similar, que permitam aprofundar o conhecimento sobre estresse e acidentes no trabalho.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Controle de processos é uma das muitas aplicações que aproveitam as vantagens do uso da teoria de conjuntos nebulosos. Nesse tipo de aplicação, o controlador é, geralmente, embutido no dispositivo controlado. Esta dissertação propõe uma arquitetura reconfigurável eficiente para controladores nebulosos embutidos. A arquitetura é parametrizável, de tal forma, que permite a configuração do controlador para que este possa ser usado na implementação de qualquer aplicação ou modelo nebuloso. Os parâmetros de configuração são: o número de variáveis de entrada (N); o número de variáveis de saída (M); o número de termos linguísticos (Q); e o número total de regras (P). A arquitetura proposta proporciona também a configuração das características que definem as regras e as funções de pertinência de cada variável de entrada e saída, permitindo a escalabilidade do projeto. A composição das premissas e consequentes das regras são configuráveis, de acordo com o controlador nebuloso objetivado. A arquitetura suporta funções de pertinência triangulares, mas pode ser estendida para aceitar outras formas, do tipo trapezoidal, sem grandes modificações. As características das funções de pertinência de cada termo linguístico, podem ser ajustadas de acordo com a definição do controlador nebuloso, permitindo o uso de triângulos. Virtualmente, não há limites máximos do número de regras ou de termos linguísticos empregados no modelo, bem como no número de variáveis de entrada e de saída. A macro-arquitetura do controlador proposto é composta por N blocos de fuzzificação, 1 bloco de inferência, M blocos de defuzzificação e N blocos referentes às características das funções de pertinência. Este último opera apenas durante a configuração do controlador. A função dos blocos de fuzzificação das variáveis de entrada é executada em paralelo, assim como, os cálculos realizados pelos blocos de defuzzificação das variáveis de saída. A paralelização das unidades de fuzzificação e defuzzificação permite acelerar o processo de obtenção da resposta final do controlador. Foram realizadas várias simulações para verificar o correto funcionamento do controlador, especificado em VHDL. Em um segundo momento, para avaliar o desempenho da arquitetura, o controlador foi sintetizado em FPGA e testado em seis aplicações para verificar sua reconfigurabilidade e escalabilidade. Os resultados obtidos foram comparados com os do MATLAB em cada aplicação implementada, para comprovar precisão do controlador.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Este trabalho investiga a implementação de sistemas fuzzy com circuitos eletrônicos. Tais sistemas têm demonstrado sua capacidade de resolver diversos tipos de problemas em várias aplicações de engenharia, em especial nas relacionadas com controle de processos. Para processos mais complexos, o raciocínio aproximado da lógica fuzzy fornece uma maneira de compreender o comportamento do sistema, permitindo a interpolação aproximada entre situações observadas de entrada e saída. A implementação de um sistema fuzzy pode ser baseada em hardware, em software ou em ambos. Tipicamente, as implementações em software utilizam ambientes de programação integrados com simulação, de modo a facilitar o trabalho do projetista. As implementações em hardware, tradicionais ou evolutivas, podem ser analógicas ou digitais e viabilizam sistemas de maior desempenho. Este trabalho tem por objetivo pesquisar a implementação eletrônica de sistemas fuzzy, a fim de viabilizar a criação de sistemas reais capazes de realizar o mapeamento de entrada e saída adequado. O foco é a utilização de uma plataforma com uma arquitetura analógico-digital baseada em uma tabela de mapeamento armazenada em uma memória de alta capacidade. Memórias do tipo SD (Secure Digital) foram estudadas e utilizadas na construção do protótipo eletrônico da plataforma. Também foram desenvolvidos estudos sobre a quantização, especificamente sobre a possibilidade de redução do número de bits. Com a implementação realizada é possível desenvolver um sistema fuzzy num ambiente simulado (Matlab), configurar a plataforma e executar o sistema fuzzy diretamente na plataforma eletrônica. Os testes com o protótipo construído comprovaram seu bom funcionamento.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Ao longo da história do homem, as universidades têm exercido um papel fundamental na geração de conhecimentos e tecnologias com o fim maior de melhorar a qualidade de vida de nossa sociedade. Em contrapartida, além de produzir os benefícios oriundos da aplicação dos conhecimentos e tecnologias, as pesquisas científicas produzem também diversos tipos de resíduos potencialmente poluidores e tóxicos os quais não estão sendo descartados e tratados corretamente. A falta de políticas institucionais de gerenciamento de resíduos nas universidades além de proporcionar a poluição dos corpos receptores de seus efluentes, a deterioração das tubulações coletoras de esgoto e, danos a eficiência das estações de tratamento de esgoto, também contribui para a geração de um passivo ambiental nas universidades, os quais são acumulados anualmente à espera de tratamento adequado em precárias condições de armazenamento. Dentro deste cenário, o presente estudo visa caracterizar e avaliar o gerenciamento dos resíduos químicos do Laboratório de Engenharia Sanitária (LES) da Universidade do Estado do Rio de Janeiro (UERJ). Quanto aos meios, foram realizadas pesquisas bibliográficas, eletrônicas e documentais, assim como entrevistas com os principais atores do gerenciamento dos resíduos no laboratório foco deste estudo. O estudo revela que o gerenciamento dos resíduos gerados em tal laboratório é realizado de maneira incipiente. As metodologias utilizadas em todas as etapas do gerenciamento, desde a geração dos resíduos até a destinação final dos mesmos carecem de melhorias para também a melhora da qualidade ambiental das atividades de pesquisa e de ensino do laboratório. Além da inexistência de normas internas para a padronização e controle do processo de gerenciamento, o laboratório também carece de estrutura física e financeira para a adequação do processo. A partir do diagnóstico deste cenário, foi possível o reconhecimento de riscos relacionados às características dos reagentes químicos somados as condicionantes ambientais do laboratório, mais especificamente, às condicionantes presentes no local do armazenamento dos resíduos. Tais riscos possuem a natureza de riscos químicos, físicos, toxicidade e riscos de explosão. Ainda na caracterização deste cenário, foi possível o reconhecimento do não cumprimento de legislações pertinentes ao tema. Conclui-se que, de maneira geral, as universidades carecem de investimentos na temática de gestão ambiental nas políticas institucionais e dia-a-dia das universidades. O laboratório em questão também não foge a esta realidade e, por tal razão, também carece de investimentos financeiros, investimentos em treinamento e investimentos na estruturas físicas para todos estes darem suporte a implantação de um gerenciamento de resíduos eficiente e consistente.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Haemophilus influenzae tipo b (Hib) é a principal causa de pneumonia bacteriana e meningite em crianças com menos de 5 anos de idade. A doença pode ser prevenida através da vacinação com uma vacina conjugada polissacarídeo-proteína, uma vez que a vacina de polissacarídeo não é eficaz. Desde 1999, o Ministério da Saúde incluiu a vacina conjugada Hib na rotina do calendário de imunização para crianças rotineiramente. Sendo este um processo de grande importância para as pessoas e demanda de produção significativa para o governo brasileiro, é necessário que os processos estejam de acordo com as normas nacionais e internacionais de regulamentação e devem ser validados. Uma operação validada assegura a produção de lotes uniformes que atendem as especificações exigidas, consequentemente, garantindo ao fabricante a capacidade de proporcionar um produto de qualidade. O trabalho propõe o desenvolvimento de uma metodologia que evidencie e garanta o processo de produção de um conjugado de polissacarídeo-proteína pelo método de conjugação química e que será produzido de forma consistente e de acordo com as suas especificações pré-definidas. Os atributos de qualidade garantem o não desabastecimento da vacina Haemophilus influenzae tipo b por desvios de processo, o que contribui com aumento do valor agregado ao produto em questão. Portanto, a metodologia de validação foi aplicada ao estudo de validação. O estudo baseou-se em três etapas. A primeira foi baseada em análise de parâmetros do processo de conjugação química para mapear e estabelecer intervalos críticos de controle quanto a estes parâmetros, a segunda fase foi realizada com a produção de três lotes consecutivos, em escala industrial, com monitorização regular dos parâmetros críticos mapeados anteriormente. A fase final consistiu em amostras recolhidas, em tempo pré-determinado, durante o processo de produção e de controle do produto final em tamanho 50% a mais que na rotina de produção. Estas amostras foram analisadas utilizando os métodos de análise que foram anteriormente validados, a fim de garantir a reprodutibilidade dos resultados. A robustez do processo foi assegurada uma vez que todos os parâmetros do processo avaliados apresentaram resultados dentro do padrão de conformidade com os resultados de controle determinados durante o processo, e no produto final para a população de amostragem dentro de especificações definidas pelas metodologias analíticas validadas garantindo os resultados. O trabalho proposto assegura status de processo validado para o conjugado polissacarídeo-proteína com excepcionais rendimentos obtidos, combinado com características químicas bem definidas

Relevância:

80.00% 80.00%

Publicador: