1000 resultados para Controlo de qualidade


Relevância:

60.00% 60.00%

Publicador:

Resumo:

A medição precisa da força é necessária para muitas aplicações, nomeadamente, para a determinação da resistência mecânica dos materiais, controlo de qualidade durante a produção, pesagem e segurança de pessoas. Dada a grande necessidade de medição de forças, têm-se desenvolvido, ao longo do tempo, várias técnicas e instrumentos para esse fim. Entre os vários instrumentos utilizados, destacam-se os sensores de força, também designadas por células de carga, pela sua simplicidade, precisão e versatilidade. O exemplo mais comum é baseado em extensómetros elétricos do tipo resistivo, que aliados a uma estrutura formam uma célula de carga. Este tipo de sensores possui sensibilidades baixas e em repouso, presença de offset diferente de zero, o que torna complexo o seu condicionamento de sinal. Este trabalho apresenta uma solução para o condicionamento e aquisição de dados para células de carga que, tanto quanto foi investigado, é inovador. Este dispositivo permite efetuar o condicionamento de sinal, digitalização e comunicação numa estrutura atómica. A ideia vai de encontro ao paradigma dos sensores inteligentes onde um único dispositivo eletrónico, associado a uma célula de carga, executa um conjunto de operações de processamento de sinal e transmissão de dados. Em particular permite a criação de uma rede ad-hoc utilizando o protocolo de comunicação IIC. O sistema é destinado a ser introduzido numa plataforma de carga, desenvolvida na Escola Superior de Tecnologia e Gestão de Bragança, local destinado à sua implementação. Devido à sua estratégia de conceção para a leitura de forças em três eixos, contém quatro células de carga, com duas saídas cada, totalizando oito saídas. O hardware para condicionamento de sinal já existente é analógico, e necessita de uma placa de dimensões consideráveis por cada saída. Do ponto de vista funcional, apresenta vários problemas, nomeadamente o ajuste de ganho e offset ser feito manualmente, tornando-se essencial um circuito com melhor desempenho no que respeita a lidar com um array de sensores deste tipo.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Cada vez mais, os principais objetivos na indústria é a produção a baixo custo, com a máxima qualidade e com o tempo de fabrico o mais curto possível. Para atingir esta meta, a indústria recorre, frequentemente, às máquinas de comando numérico (CNC), uma vez que com esta tecnologia torna se capaz alcançar uma elevada precisão e um tempo de processamento mais baixo. As máquinas ferramentas CNC podem ser aplicadas em diferentes processos de maquinagem, tais como: torneamento, fresagem, furação, entre outros. De todos estes processos, o mais utilizado é a fresagem devido à sua versatilidade. Utiliza-se normalmente este processo para maquinar materiais metálicos como é o caso do aço e dos ferros fundidos. Neste trabalho, são analisados os efeitos da variação de quatro parâmetros no processo de fresagem (velocidade de corte, velocidade de avanço, penetração radial e penetração axial), individualmente e a interação entre alguns deles, na variação da rugosidade num aço endurecido (aço 12738). Para essa análise são utilizados dois métodos de otimização: o método de Taguchi e o método das superfícies. O primeiro método foi utilizado para diminuir o número de combinações possíveis e, consequentemente, o número de ensaios a realizar é denominado por método de Taguchi. O método das superfícies ou método das superfícies de resposta (RSM) foi utilizado com o intuito de comparar os resultados obtidos com o método de Taguchi, de acordo com alguns trabalhos referidos na bibliografia especializada, o RSM converge mais rapidamente para um valor ótimo. O método de Taguchi é muito conhecido no setor industrial onde é utilizado para o controlo de qualidade. Apresenta conceitos interessantes, tais como robustez e perda de qualidade, sendo bastante útil para identificar variações do sistema de produção, durante o processo industrial, quantificando a variação e permitindo eliminar os fatores indesejáveis. Com este método foi vi construída uma matriz ortogonal L16 e para cada parâmetro foram definidos dois níveis diferentes e realizados dezasseis ensaios. Após cada ensaio, faz-se a medição superficial da rugosidade da peça. Com base nos resultados obtidos das medições da rugosidade é feito um tratamento estatístico dos dados através da análise de variância (Anova) a fim de determinar a influência de cada um dos parâmetros na rugosidade superficial. Verificou-se que a rugosidade mínima medida foi de 1,05m. Neste estudo foi também determinada a contribuição de cada um dos parâmetros de maquinagem e a sua interação. A análise dos valores de “F-ratio” (Anova) revela que os fatores mais importantes são a profundidade de corte radial e da interação entre profundidade de corte radial e profundidade de corte axial para minimizar a rugosidade da superfície. Estes têm contribuições de cerca de 30% e 24%, respetivamente. Numa segunda etapa este mesmo estudo foi realizado pelo método das superfícies, a fim de comparar os resultados por estes dois métodos e verificar qual o melhor método de otimização para minimizar a rugosidade. A metodologia das superfícies de resposta é baseada num conjunto de técnicas matemáticas e estatísticas úteis para modelar e analisar problemas em que a resposta de interesse é influenciada por diversas variáveis e cujo objetivo é otimizar essa resposta. Para este método apenas foram realizados cinco ensaios, ao contrário de Taguchi, uma vez que apenas em cinco ensaios consegue-se valores de rugosidade mais baixos do que a média da rugosidade no método de Taguchi. O valor mais baixo por este método foi de 1,03μm. Assim, conclui-se que RSM é um método de otimização mais adequado do que Taguchi para os ensaios realizados. Foram obtidos melhores resultados num menor número de ensaios, o que implica menos desgaste da ferramenta, menor tempo de processamento e uma redução significativa do material utilizado.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

The quality of the image of 18F-FDG PET/CT scans in overweight patients is commonly degraded. This study evaluates, retrospectively, the relation between SNR, weight and dose injected in 65 patients, with a range of weights from 35 to 120 kg, with scans performed using the Biograph mCT using a standardized protocol in the Nuclear Medicine Department at Radboud University Medical Centre in Nijmegen, The Netherlands. Five ROI’s were made in the liver, assumed to be an organ of homogenous metabolism, at the same location, in five consecutive slices of the PET/CT scans to obtain the mean uptake (signal) values and its standard deviation (noise). The ratio of both gave us the Signal-to- Noise Ratio in the liver. With the help of a spreadsheet, weight, height, SNR and Body Mass Index were calculated and graphs were designed in order to obtain the relation between these factors. The graphs showed that SNR decreases as the body weight and/or BMI increased and also showed that, even though the dose injected increased, the SNR also decreased. This is due to the fact that heavier patients receive higher dose and, as reported, heavier patients have less SNR. These findings suggest that the quality of the images, measured by SNR, that were acquired in heavier patients are worst than thinner patients, even though higher FDG doses are given. With all this taken in consideration, it was necessary to make a new formula to calculate a new dose to give to patients and having a good and constant SNR in every patient. Through mathematic calculations, it was possible to reach to two new equations (power and exponential), which would lead to a SNR from a scan made with a specific reference weight (86 kg was the considered one) which was independent of body mass. The study implies that with these new formulas, patients heavier than the reference weight will receive higher doses and lighter patients will receive less doses. With the median being 86 kg, the new dose and new SNR was calculated and concluded that the quality of the image remains almost constant as the weight increases and the quantity of the necessary FDG remains almost the same, without increasing the costs for the total amount of FDG used in all these patients.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Com o objetivo de diminuir a incidência das leveduras encapsulas em alginato se aglomerarem na segunda fermentação em garrafa e reduzir custos associados à sua eliminação, pretendeu-se utilizar a metodologia NIR para determinar a quantidade de cálcio no vinho. Foram quantificados outros minerais para avaliar hipotéticos antagonismos iónicos. Observou-se também que este controlo de qualidade poderá ser efetuado no mosto. Atualmente este controlo é realizado por metodologias de análise de referência bastante morosas como EAA. Contudo a metodologia NIR demonstrou ser uma boa alternativa no controlo dos parâ-metros de qualidade na produção de vinho espumante, permitindo a diminuição do tempo de análise e de resíduos. No desenvolvimento dos modelos matemáticos para a calibração do NIR utilizaram-se 79 vinhos brancos e 60 amostras de mosto. Foram desenvolvidos 11 modelos de calibração onde o coeficiente de correlação foi, em aproximadamente 58% dos casos, maior que 0,99; ABSTRACT: In order to reduce the incidence of alginate beads aggregation during the second fermentation in the bottle and to reduce costs associated with their disposal, it was used the NIR technology to quantify calcium content in the wine. Other minerals were also quantified in order to evaluate possible ionic antagonisms. Quality control is usually done in the base wine but it can also be evaluated in the must. Currently this control was carried out by reference analysis methodologies generally rather slow as AAS. However NIR proved to be a good alternative technique in the control of quality parameters of wine production, allowing the reduction of the analysis time and waste. In order to develop mathematical models for the calibration of NIR it was used 79 white wine samples and 60 must samples. Eleven calibration models have been developed, where the correlation coeffi-cient was, in approximately 58% of cases, greater than 0,99.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

O sistema de PET-TC resulta da combinação de duas modalidades de imagem médica: a Tomografia Computorizada (TC), que permite obter imagens anatómicas precisas, e a Tomografia por Emissão de Positrões (PET), que oferece imagens moleculares do corpo humano. Num exame hibrido de PET-TC, para além da exposição interna, o doente é também submetido a uma exposição externa devida à irradiação do mesmo por uma fonte externa, referente à aquisição dos dados de TC. Como tal, o exame de PET-TC tem associado um aumento da exposição para o doente [Huang, 2009], pelo que normalmente os scans de TC são adquiridos com baixa dose [Nunes,2011]. Pretende-se com este trabalho, estabelecer um método capaz de estimar a dose efetiva em exames de corpo inteiro de 18F-FDG PET-TC, uma vez que existem diversos métodos para realizar análise dosimétrica dos exames individuais de PET e de TC, e comparar os valores obtidos com os valores utilizados em outros países. Foram recolhidos dados de 24 pacientes que efetuaram exames de corpo inteiro de PET-TC com 18F-FDG no ICNAS, por questões de saúde e por necessidade própria, com o intuito de estimar a dose efetiva associada a esses exames. Para estimar a dose efetiva referente ao exame de TC recorreu-se ao valor de DLP, fornecido pelo equipamento de TC com controlo de qualidade em dia, e ao método dos coeficicientes de dose efetiva normalizados, proposto pela CE, obtendo-se um valor de dose de 4.75 mSv. A dose efetiva do exame de PET foi calculada com base nos valores da atividade no momento de aquisição das imagens e em coeficientes de dose para a PET, obtendo-se um valor de dose de 4.77 mSv. Concluiu-se que para os pacientes sujeitos ao exame de corpo inteiro de 18F-FDG PET-TC, foi registado um valor de dose de 9.47 mSv de dose efetiva. Este valor de dose efetiva para os exames de PET-TC é significativamente mais baixo comparativamente aos valores registados em vários estudos internacionais (13.65 mSv, 14.3 mSv, 18.85 mSv, 24.8 mSv, 25 mSv, 32.18 mSv), dos quais apenas no estudo de Brix um dos hospitais estudados regista um valor ligeiramente inferior, de 8.5 mSv. Com este estudo foi possível determinar o valor de exposição à radiação a que os pacientes do ICNAS se encontram sujeitos em exames de corpo inteiro de 18F-FDG PET-TC considerando as duas modalidades de imagem médica.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

A cintigrafia óssea de corpo inteiro representa um dos exames imagiológicos mais frequentes realizados em medicina nuclear. Para além de outras aplicações, este procedimento é capaz de fornecer o diagnóstico de metástases ósseas. Em doentes oncológicos, a presença de metástases ósseas representa um forte indicador prognóstico da longevidade do doente. Para além disso, a presença ou ausência de metástases ósseas irá influenciar o planeamento do tratamento, requerendo para isso uma interpretação precisa dos resultados imagiológicos. Problema: Tendo em conta que a metastização óssea é considerada uma complicação severa relacionada com aumento da morbilidade e diminuição de sobrevivência dos doentes, o conceito de patient care torna-se ainda mais imperativo nestas situações. Assim, devem ser implementadas as melhores práticas imagiológicas de forma a obter o melhor resultado possível do procedimento efetuado, associado ao desconforto mínimo do doente. Uma técnica provável para atingir este objetivo no caso específico da cintigrafia óssea de corpo inteiro é a redução do tempo de aquisição, contudo, as imagens obtidas por si só teriam qualidade de tal forma reduzida que os resultados poderiam ser enviesados. Atualmente, surgiram novas técnicas, nomeadamente relativas a processamento de imagem, através das quais é possível gerar imagens cintigráficas com contagem reduzida de qualidade comparável àquela obtida com o protocolo considerado como standard. Ainda assim, alguns desses métodos continuam associados a algumas incertezas, particularmente no que respeita a sustentação da confiança diagnóstica após a modificação dos protocolos de rotina. Objetivos: O presente trabalho pretende avaliar a performance do algoritmo Pixon para processamento de imagem por meio de um estudo com fantoma. O objetivo será comparar a qualidade de imagem e a detetabilidade fornecidas por imagens não processadas com aquelas submetidas à referida técnica de processamento. Para além disso, pretende-se também avaliar o efeito deste algoritmo na redução do tempo de aquisição. De forma a atingir este objetivo, irá ser feita uma comparação entre as imagens obtidas com o protocolo standard e aquelas adquiridas usando protocolos mais rápidos, posteriormente submetidas ao método de processamento referido. Material e Métodos: Esta investigação for realizada no departamento de Radiologia e Medicina Nuclear do Radboud University Nijmegen Medical Centre, situado na Holanda. Foi utilizado um fantoma cilíndrico contendo um conjunto de seis esferas de diferentes tamanhos, adequado à técnica de imagem planar. O fantoma foi preparado com diferentes rácios de atividade entre as esferas e o background (4:1, 8:1, 17:1, 22:1, 32:1 e 71:1). Posteriormente, para cada teste experimental, o fantoma foi submetido a vários protocolos de aquisição de imagem, nomeadamente com diferentes velocidades de aquisição: 8 cm/min, 12 cm/min, 16 cm/min e 20 cm/min. Todas as imagens foram adquiridas na mesma câmara gama - e.cam Signature Dual Detector System (Siemens Medical Solutions USA, Inc.) - utilizando os mesmos parâmetros técnicos de aquisição, à exceção da velocidade. Foram adquiridas 24 imagens, todas elas submetidas a pós-processamento com recurso a um software da Siemens (Siemens Medical Solutions USA, Inc.) que inclui a ferramenta necessária ao processamento de imagens cintigráficas de corpo inteiro. Os parâmetros de reconstrução utilizados foram os mesmos para cada série de imagens, estando estabelecidos em modo automático. A análise da informação recolhida foi realizada com recurso a uma avaliação objetiva (utilizando parâmetros físicos de qualidade de imagem) e outra subjetiva (através de dois observadores). A análise estatística foi efetuada recorrendo ao software SPSS versão 22 para Windows. Resultados: Através da análise subjetiva de cada rácio de atividade foi demonstrado que, no geral, a detetabilidade das esferas aumentou após as imagens serem processadas. A concordância entre observadores para a distribuição desta análise foi substancial, tanto para imagens não processadas como imagens processadas. Foi igualmente demonstrado que os parâmetros físicos de qualidade de imagem progrediram depois de o algoritmo de processamento ter sido aplicado. Para além disso, observou-se ao comparar as imagens standard (adquiridas com 8 cm/min) e aquelas processadas e adquiridas com protocolos mais rápidos que: imagens adquiridas com uma velocidade de aquisição de 12 cm/min podem fornecer resultados melhorados, com parâmetros de qualidade de imagem e detetabilidade superiores; imagens adquiridas com uma velocidade de 16 cm/min fornecem resultados comparáveis aos standard, com valores aproximados de qualidade de imagem e detetabilidade; e imagens adquiridas com uma velocidade de 20 cm/min resultam em valores diminuídos de qualidade de imagem, bem como redução a nível da detetabilidade. Discussão: Os resultados obtidos foram igualmente estabelecidos por meio de um estudo clínico numa investigação independente, no mesmo departamento. Foram incluídos cinquenta e um doentes referidos com carcinomas da mama e da próstata, com o objetivo de estudar o impacto desta técnica na prática clínica. Os doentes foram, assim, submetidos ao protocolo standard e posteriormente a uma aquisição adicional com uma velocidade de aquisição de 16 cm/min. Depois de as imagens terem sido cegamente avaliadas por três médicos especialistas, concluiu-se que a qualidade de imagem bem como a detetabilidade entre imagens era comparável, corroborando os resultados desta investigação. Conclusão: Com o objetivo de reduzir o tempo de aquisição aplicando um algoritmo de processamento de imagem, foi demonstrado que o protocolo com 16 cm/min de velocidade de aquisição será o limite para o aumento dessa mesma velocidade. Após processar a informação, este protocolo fornece os resultados mais equivalentes àqueles obtidos com o protocolo standard. Tendo em conta que esta técnica foi estabelecida com sucesso na prática clínica, pode-se concluir que, pelo menos em doentes referidos com carcinomas da mama e da próstata, o tempo de aquisição pode ser reduzido para metade, duplicando a velocidade de aquisição de 8 para 16 cm/min.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Este trabalho tem como o grande objectivo encontrar caminhos para a viabilização de um pequeno negócio de contabilidade, situado na região centro. A metodologia empregue foi o estudo de caso, complementado com um inquérito para conhecer a realidade do sector onde se insere este gabinete. A revisão da literatura é reveladora da necessidade de planeamento estratégico para as PME´s, sendo fundamental a sua aplicação para atingir o sucesso nos negócios. Tendo isto em conta, efectuou-se a análise estratégica do gabinete com ajuda dos dados do mesmo e dos recolhidos no inquérito, utilizando a metodologia relativa ao planeamento estratégico desenvolvida na revisão bibliográfica. Desta análise, concluiu-se que a viabilização do gabinete depende de se incrementar o número de clientes, por via da divulgação dos serviços do gabinete junto dos organismos promotores do empreendedorismo; de se promover o contacto pessoal com o cliente ou futuros clientes; de se criar incentivos ao marketing boca-a-boca e divulgá-los junto de clientes existentes; de se desenvolver de um manual de controlo da qualidade para garantir regularidade da qualidade dos serviços e de se continuar o investimento em formação.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Conferência plenária apresentada em 20 de Maio de 2016 no Fórum ALABE 2016

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Dissertação de mestrado, Ciências Farmacêuticas, Faculdade de Ciências e Tecnologia, Universidade do Algarve, 2012

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Introdução: A lombalgia crónica assume uma elevada prevalência e graves repercussões a nível socioeconómico, sendo inúmeras as abordagens terapêuticas para o seu tratamento e prevenção. Existindo forte evidência da eficácia dos exercícios terapêuticos no seu tratamento, importa saber quais os mais efetivos. Objectivos: Comparar a efetividade de dois programas de exercício terapêutico na endurance do tronco, no controlo lombo-pélvico, na perceção de dor lombar e fadiga, na funcionalidade e na qualidade de vida em mulheres com lombalgia crónica não especifica, cuidadoras de idosos. Métodos: 24 mulheres foram divididas aleatoriamente em três grupos de 8. Durante 6 semanas, um grupo serviu de controlo (GC) e os outros dois grupos realizaram um programa de exercícios: Pilates Clínico (GP) ou exercícios segundo McGill (GM), com os outcomes medidos em ternos de endurance de tronco pelos testes de McGill, controlo lombo-pélvico pelos testes Active Straight Leg Raise e teste de controlo lombo-pélvico segundo McGill, dor lombar pela Numerical Rating Scale, fadiga pela escala de Borg, funcionalidade através do Questionário de Incapacidade de Roland Morris e qualidade de vida através do Questionário de Estado de Saúde (SF36-V2). Resultados: Relativamente à endurance, verificaram-se diferenças entre grupos no rácio flexores/extensores (p=0,005), e no rácio lateroflexores à esquerda/extensores (p=0,027), sendo que o GP apresentou um rácio estatisticamente inferior ao GC em ambos. Não existiram diferenças estatisticamente significativas entre os 3 grupos no controlo lombo-pélvico, perceção de dor, fadiga e funcionalidade, apesar das melhorias observadas intra-grupos. Relativamente à qualidade de vida, a dimensão saúde em geral aumentou significativamente no GP (p=0,020) e a função social no GM (p=0,045). Conclusão: A implementação dos programas de exercício Pilates Clínico e Exercícios segundo McGill numa amostra de cuidadoras de idosos com lombalgia crónica não especifica, parece ter um efeito positivo quando comparados com os do grupo de controlo sobre a endurance do tronco, controlo lombo-pélvico, perceção de dor lombar e fadiga, funcionalidade e qualidade de vida.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Dissertação apresentada ao Instituto Superior de Contabilidade e Administração do Porto para cumprimento dos requisitos necessários à obtenção do grau de Mestre em Auditoria, realizada sob a orientação científica do Mestre Carlos Mendes, Equiparado a Professor Adjunto do Instituto Superior de Contabilidade e Administração do Porto. Orientada por Mestre Carlos Mendes Porto, abril 2014

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Dissertação de Mestrado apresentado ao Instituto de Contabilidade e Administração do Porto para a obtenção do grau de Mestre em Auditoria, sob orientação de: Doutora Alcina Dias e coorientação de: Doutora Ana Paula Lopes

Relevância:

40.00% 40.00%

Publicador:

Resumo:

RESUMO - A impressionante evolução da incidência notificada desde 1950 evidencia o quanto o sistema de informação é sensível ao esforço de notificação, reflectindo ainda o impacte das medidas de controlo que foram sendo introduzidas, bem como alguma melhoria nas condições sociais com efeito favorável sobre a doença (Briz, 2005). Sendo a tuberculose uma doença de notificação obrigatória, nos termos da Portaria n.º 766/86, de 26 de Dezembro, os casos deverão ser sempre comunicados à Autoridade de Saúde, em impresso aprovado. O facto de a tuberculose ter um sistema de informação próprio tem permitido um conhecimento relativamente completo da situação epidemiológica. (DGS, 1995) Pretende-se caracterizar o perfil de distribuição da incidência notificada da tuberculose pulmonar, em Portugal Continental, nomeadamente a nível distrital, no período compreendido entre 2000 e 2008, inclusive, partindo-se depois para um estudo mais pormenorizado, relacionado com a sensibilidade do sistema de notificação da tuberculose, no sentido de se quantificarem os problemas de subnotificação. Para validação da notificação, serão utilizados os dados de 2007 e 2008. Procurar-se-á depois obter o perfil da incidência ajustada para a detecção em cada um desses anos, avançando-se de seguida para a identificação e caracterização de parâmetros complementares e de acesso fácil que contribuam para interpretar a distribuição geográfica da incidência notificada, em função da sua provável validade. Perante o eventual confronto com o problema da subnotificação, a identificação das razões da menor adesão à notificação de casos de tuberculose pulmonar apresenta-se quase como inevitável, sendo feita através do recurso a entrevistas a informadores-chave. --------------------------------------ABSTRACT - The impressive development of the incidence reported since 1950 shows how the system is sensitive to the effort of notification, still reflects the impact of control measures have been introduced, and some improvement in social conditions with favorable effect on the disease ( Briz, 2005). As tuberculosis a notifiable disease, according to Ordinance No. 766/86, December 26, cases should be reported to the Health Authority, approved in print. The fact that tuberculosis have an information system itself has allowed a relatively complete knowledge of the epidemiological situation. (DGS, 1995) The aim is to characterize the distribution profile of the reported incidence of pulmonary tuberculosis, in Portugal, particularly at district level in the period between 2000 and 2008, starting from then to a more detailed study, related to the sensitivity of the system notification of tuberculosis, in order to quantify the problems of underreporting. For validation of the notification, we used the data from 2007 and 2008. Search will then obtain the profile of the adjusted incidence for detection in each of those years, advancing is then for the identification and characterization of additional parameters and easy access to contribute to interpret the geographical distribution of reported incidence in according to their likely validity. Given the eventual confrontation with the problem of underreporting, the identification of reasons for the lower adherence to reporting cases of pulmonary tuberculosis has become almost as inevitable, being made through the use of interviews with key informants.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Dissertação para obtenção do Grau de Mestre em Engenharia Eletrotécnica e de Computadores

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Nesta Dissertação apresentam-se e estudam-se, de uma forma crítica, dois novos métodos de amostragem adaptativa e uma nova medida de desempenho de métodos de amostragem, no contexto do controlo estatístico da qualidade. Considerando como base uma carta de controlo para a média do tipo Shewhart, estudamos as suas propriedades estatísticas e realizamos estudos comparativos, em termos do seu desempenho estatístico, com alguns dos métodos mais referenciados na literatura.Inicialmente, desenvolvemos um novo método adaptativo de amostragem no qual os intervalos entre amostras são obtidos com base na função densidade da distribuição de Laplace reduzida. Este método revela-se, particularmente, eficiente na deteção de moderadas e grandes alterações da média, pouco sensível à limitação do menor intervalo de amostragem e robusto face a diferentes situações consideradas para a não normalidade da característica da qualidade. Em determinadas situações, este método é sempre mais eficiente do que o método com intervalos de amostragem adaptativos,dimensões amostrais fixas e coeficientes dos limites de controlo fixos. Tendo como base o método de amostragem definido no ponto anterior e um método no qual os intervalos de amostragem são definidos antes do início do controlo do processo com base na taxa cumulativa de risco do sistema, apresentamos um novo método de amostragem que combina o método de intervalos predefinidos com o método de intervalos adaptativos. Neste método, os instantes de amostragem são definidos pela média ponderada dos instantes dos dois métodos, atribuindo-se maior peso ao método adaptativo para alterações moderadas (onde o método predefinido é menos eficaz) e maior peso ao método predefinido nos restantes casos (onde o método adaptativo é menos eficaz). Desta forma, os instantes de amostragem, inicialmente calendarizados de acordo com as expectativas de ocorrência de uma alteração tomando como base a distribuição do tempo de vida do sistema, são adaptados em função do valor da estatística amostral calculada no instante anterior. Este método é sempre mais eficiente do que o método periódico clássico, o que não acontece com nenhum outro esquema adaptativo, e do que o método de amostragem VSI para alguns pares de amostragem, posicionando-se como uma forte alternativa aos procedimentos de amostragem encontrados na literatura. Por fim, apresentamos uma nova medida de desempenho de métodos de amostragem. Considerando que dois métodos em comparação têm o mesmo tempo médio de mau funcionamento, o desempenho dos métodos é comparado através do número médio de amostras recolhidas sob controlo. Tendo em conta o tempo de vida do sistema, com diferentes taxas de risco, esta medida mostra-se robusta e permite, num contexto económico, um melhor controlo de custos por unidade de tempo.