826 resultados para Confiabilidade


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os instrumentos de medida são desenvolvidos para as mais diversas finalidades e indicações. Sua funcionalidade depende de escalas genéricas, do estado de saúde e escalas específicas a uma determinada situação. O presente estudo teve como objetivo discorrer sobre os aspectos importantes que permeiam a utilização dos instrumentos de medida e apresentar de forma sistematizada os indicadores e instrumentos de medida de QV, utilizados e validados no Brasil. Realizou-se um estudo de revisão narrativa do conhecimento disponível na literatura, com consulta às seguintes bases de dados: DEDALUS, LILACS, MEDLINE e Scielo, tendo como base os períodos de 1995-2008. Observou-se que os instrumentos levantados são os mais adequados para aplicação na população brasileira, com boa consistência interna, validade e confiabilidade teste-reteste. Conclui-se que apesar de serem instrumentos reconhecidos nacional e internacionalmente, ainda são necessários mais estudos de aplicação, para melhor assegurar as suas propriedades psicométricas, melhor forma de administração e as possíveis interferências interexaminadores.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os instrumentos de medida são desenvolvidos para as mais diversas finalidades e indicações. Sua funcionalidade depende de escalas genéricas, do estado de saúde e escalas específicas a uma determinada situação. O presente estudo teve como objetivo discorrer sobre os aspectos importantes que permeiam a utilização dos instrumentos de medida e apresentar de forma sistematizada os indicadores e instrumentos de medida de QV, utilizados e validados no Brasil. Realizou-se um estudo de revisão narrativa do conhecimento disponível na literatura, com consulta às seguintes bases de dados: DEDALUS, LILACS, MEDLINE e Scielo, tendo como base os períodos de 1995-2008. Observou-se que os instrumentos levantados são os mais adequados para aplicação na população brasileira, com boa consistência interna, validade e confiabilidade teste-reteste. Conclui-se que apesar de serem instrumentos reconhecidos nacional e internacionalmente, ainda são necessários mais estudos de aplicação, para melhor assegurar as suas propriedades psicométricas, melhor forma de administração e as possíveis interferências interexaminadores.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A dengue é a mais importante doença viral transmitida por mosquitos, no que diz respeito à morbidade e mortalidade, que afeta os seres humanos. Este vírus é transmitido pelos vetores Aedes albopictus e Aedes aegypti, este último é o principal vetor nas Américas. O controle da doença se baseia na vigilância laboratorial e vigilância entomológica. A vigilância laboratorial visa aprimorar a capacidade do diagnóstico, detectando precocemente a circulação viral e monitorando os sorotipos circulantes. Dentro deste tipo de vigilância, a RT-PCR é um método bastante usado no diagnóstico da doença em humanos e mosquitos, porém, a má conservação do material pode comprometer a integridade do RNA e trazer resultados falso-negativos. O desenvolvimento de melhores métodos de vigilância do vírus dengue (DENV) em mosquitos é de grande valor para os programas de controle. Desta maneira, o presente projeto visou otimizar a técnica de RT-PCR Multiplex para detecção de DENV em amostras de Ae. aegypti infectadas artificialmente pelo vírus. Primers que amplificam uma região de 80 pb do gene rpL8 de mosquito foram desenhados no site Primer3 e avaliados na ferramenta online Multiple Primer Analyzer, junto com primers que amplificam os sorotipos DENV. Não houve competição de primers e foi observado bandas distintas no gel de agarose. Foi avaliado o efeito de diferentes formas de preservação do material genético das amostras (RNAlater®, freezer -80°C e nitrogênio líquido) por 7 dias, onde não houve diferenças significativas em relação à integridade do RNA. O efeito de diferentes formas de extração de RNA (Kit da QIAGEN® , TRIzol® e Chomczymski-Sacchi) também foi avaliado e o método ChomczymskiSacchi obteve o melhor desempenho. A otimização desta técnica permitirá uma maior confiabilidade nos resultados, já que além da detecção dos sorotipos, haverá uma confirmação da qualidade do RNA, aprimorando a capacidade do diagnóstico e auxiliando a prevenção e controle da transmissão da dengue.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A leishmaniose visceral (LV) é uma doença infecto-parasitária causada por protozoários do gênero Leishmania. O trabalho teve como objetivo avaliar estratégias para o aprimoramento do diagnóstico molecular na LV, que compreenderam a avaliação da eficiência de diferentes métodos de extração de DNA em amostras de urina; a análise do uso da Reação em Cadeia da Polimerase quantitativa em tempo real (qPCR) como ferramenta para a detecção do DNA de Leishmania infantum na referida amostra; e a padronização de uma reação duplex qPCR para a detecção simultânea do DNA de L. infantum e do gene G3PD (controle endógeno). Depois da escolha do protocolo de extração de DNA mais apropriado, e após a otimização e a análise de reprodutibilidade, uma qPCR em urina foi padronizada. Em paralelo, após o desenho e a síntese de sondas TaqMan® compatíveis com os sistemas LINF 1B e G3PD1, após otimização e análise de reprodutibilidade, uma duplex qPCR em sangue também foi padronizada. Para avaliação dos protocolos desenvolvidos foram utilizadas técnicas de estatística descritiva. Para análise comparativa com técnicas clássicas de diagnóstico da LV utilizou-se Teste Qui Quadrado de independência ou Teste Exato de Fisher (p<0,05 e p<0,01, respectivamente). Como resultados, após otimização, o limite de detecção alcançado pela qPCR em urina utilizando o protocolo de extração selecionado (kit comercial) foi de 5 fg/microlitros de amostra 0,034 parasitos) A duplex qPCR em sangue alcançou um limite de detecção de 2x102 fg/microlitros de amostra 1,4 (ou ~ 1,4 parasito), após a otimização. A partir dos dados estatísticos obtidos, pôde-se analisar alta concordância percentual entre a qPCR e urina e o conjunto de critérios diagnósticos (sorologia rK39 + qPCR em sangue), bem como entre a duplex qPCR em sangue e a qPCR em sangue, para os Grupos 01 (pacientes com suspeita de LV) e 02 (pacientes HIV positivos co-infectados ou não). Como um conjunto de critérios, os dois novos ensaios obtiveram excelentes concordâncias com o conjunto de técnicas clássicas: 88,89 por cento e 94,74 por cento para os Grupos 01 e 02, respectivamente. Não houve diferenças estatísticas significativas entre os testes. Pôde-se concluir que ambos os ensaios mostraram bom potencial para a incorporação, após validação, ao diagnóstico da LV; em conjunto ou individualmente (quando necessário), trazendo mais conforto, praticidade, confiabilidade e rapidez ao diagnóstico definitivo da patologia

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A cultura de segurança do paciente tem recebido crescente atenção no campo das organizações de saúde. Os cuidados de saúde, cada vez mais complexos, elevam o potencial de ocorrência de incidentes, erros ou falhas, particularmente em hospitais.Uma cultura de segurança fortalecida no âmbito hospitalar emerge como um dosrequisitos essenciais para melhorar a qualidade do cuidado de saúde. Avaliar o status da cultura de segurança no hospital permite identificar e gerir prospectivamente questões relevantes de segurança nas rotinas de trabalho. O objetivo central deste estudo foi realizar a adaptação transcultural do Hospital Survey on Patient SafetyCulture (HSOPSC) instrumento de avaliação das características da cultura de segurança do paciente em hospitais para a Língua Portuguesa e contexto brasileiro. Secundariamente, objetivou-se avaliar as características da cultura de segurança nos hospitais participantes. Adotou-se abordagem universalista para avaliar a equivalênciaconceitual, de itens e semântica. A análise de confiabilidade do instrumento foi realizada por meio da análise da consistência interna das dimensões, através do coeficiente alfa de Cronbach. A validade de constructo foi realizada por meio das Análises Fatorial Confirmatória e Exploratória. A cultura de segurança do paciente foi avaliada com a aplicação do questionário na população do estudo. A amostra foicomposta por 322 profissionais que trabalham em dois hospitais de cuidados agudos. A aplicação do instrumento ocorreu entre os meses de março e maio de 2012. O questionário foi traduzido para o Português e sua versão final incluiu 42 itens. Nas etapas iniciais desta adaptação a população-alvo avaliou todos os itens como de fácilcompreensão. A versão adaptada para Língua Portuguesa dos HSOPSC apresentou alfa de Cronbach total de 0,91.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A verificação da qualidade dos kits de diagnóstico para detecção do HTLV-I/II é essencial, uma vez que são utilizados tanto em rotinas laboratoriais como em Serviços de Hemoterapia para aprovar a doação de sangue. Os conjuntos diagnósticos constituem uma ferramenta fundamental para diagnóstico por possuírem uma alta sensibilidade e especificidade, garantindo a confiabilidade dos resultados. Pela variedade de conjuntos diagnósticos encontrados no mercado, é necessário um rigoroso controle de qualidade para evitar possíveis erros analíticos como resultados falso-positivos, causando problemas emocionais e sociais no doador. O presente trabalho foi realizado no intuito de caracterizar unidades de plasma obtidas de Serviços de Hemoterapia de diversas regiões do país para compor e ampliar um painel de referência para HTLV que será utilizado na verificação do controle de qualidade dos kits de diagnóstico para o HTLV-I/II, aumentando a capacidade analítica do Laboratório de Sangue e Hemoderivados (LSH), localizado no Instituto Nacional de Controle de Qualidade em Saúde (INCQS)/Fiocruz. Desta forma, foram analisadas no período de 2000 a 2013, 3.559 unidades de plasma. Das unidades que foram encaminhadas para o INCQS, 109 foram enviadas como reagentes para HTLV, sendo recaracterizadas pela triagem de marcadores para HIV-1/2, hepatite C, HBsAg, anti-HBc, Doença de Chagas e Sífilis. A princípio foram realizados dois testes para HTLV-I/II. As unidades de plasma com reatividade apenas para anti-HTLV-I/II foram testadas através da técnica de ELISA e nas amostras com resultado reativo, a confirmação foi realizada por Western Blot. Todos os testes realizados seguiram rigorosamente as técnicas descritas nos manuais de instrução de cada fabricante. Por fim, foram obtidas76 amostras com reatividade para anti-HTLV-I/II, possibilitando a ampliação do painel de referência já existente no LSH e consequentemente a capacidade analítica do laboratório.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação apresentada ao Programa de Pós-graduação em Administração - Mestrado da Universidade Municipal de São Caetano do Sul

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação apresentada ao Programa de Pós-Graduação em Administração da Universidade Municipal de São Caetano do Sul como requisito para a obtenção do título de Mestre em Administração

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A segurança alimentar é um dos principais fatores a ser considerado na área de alimentação e nutrição, a Organização Mundial da Saúde (OMS) registrou 351 casos de morte por contaminação alimentar no ano de 2010 e estima que cerca 582 milhões dos casos de contaminação global foram causados por consumo de alimentos estragados ou contaminados. Diante deste cenário, a indústria de alimentos vem desenvolvendo técnicas e processos para tornar o alimento cada vez mais seguro para o consumidor e ao mesmo tempo adequar seus processos, estruturas e capacitação de pessoas para atender a legislação vigente. Alimentos industriais geralmente são produzidos em grande escala para atender à demanda, exigindo assim processos automatizados e também um certo número de funcionários que manipulem este alimento, aumentando o risco de contaminação por conta dos manipuladores. A indústria de embalagens vem se desenvolvendo no sentido de reduzir a atividade microbiana no interior da embalagem, por meio de embalagens ativa ou de modificação atmosférica, ou embalagens que possam transmitir ao consumidor mais confiabilidade, indicando o que acontece no interior das embalagens. O objetivo do presente estudo foi analisar junto a literatura quais os tipos de embalagens existentes nos dias de hoje, e demonstrar sua eficácia no controle e inibição do crescimento microbiano e melhoria da qualidade organoléptica. Por meio de pesquisas as principais bibliotecas digitais como LILACS, BIREME, além de fonte de livrose defesa de mestrado, obteve-se como resultado um grande acervo a respeito de embalagens ativas e inteligentes. Conclui-se, portanto, que esta revisão tem potencial para se tornar fonte de pesquisa para industrias que procuram inovações no setor de embalagem. O termo embalagem ativa e embalagem inteligente ainda é pouco conhecido pelos consumidores e mesmo os que já conhecem os termos, acabam concluindo que ambas embalagens são ativas, sendo que embalagens ativas tem a função de interagir com o alimento para melhorar seus aspectos sensoriais e as embalagens ativas monitoram e transmitem em tempo real a situação do produto armazenado em diversos aspectos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O modelo de objetos apresenta-se como um modelo promissor para o desenvolvimento de software tolerante a falhas em virtude de características inerentes ao próprio modelo de objetos, tais como abstração de dados, encapsulamento, herança e reutilização de objetos (componentes). O uso de técnicas orientadas a objetos facilita o controle da complexidade do sistema porque promove uma melhor estruturação de seus componentes e também permite que componentes já validados sejam reutilizados [LIS96]. Técnicas básicas para tolerância a falhas em software baseiam-se na diversidade de projeto e de implementação de componentes considerados críticos. Os componentes diversitários são gerenciados através de alguma técnica que tenha por objetivo assegurar o fornecimento do serviço solicitado, como, por exemplo, a conhecida técnica de blocos de recuperação. Reflexão Computacional é a capacidade que um sistema tem de fazer computações para se auto analisar. Ela é obtida quando o programa pára sua execução por um período de tempo para fazer computações sobre si próprio; analisa seu estado, se o processamento está correto, se pode prosseguir com a execução e atingir o objetivo satisfatoriamente; se não precisa mudar de estratégia ou algoritmo de execução, fazendo, ainda, processamentos necessários para o sucesso da execução. Um sistema de programação distribuída consiste basicamente em vários aplicativos executados em diferentes computadores, os quais realizam troca de mensagens para solucionar um problema comum. A comunicação entre os computadores é realizada através da rede que os interliga. As Redes que controlam sistemas críticos são normalmente de pequena escala pois redes de grandes dimensões podem apresentar atrasos e baixa confiabilidade. Portanto, a abordagem aqui proposta consiste em utilizar, em um ambiente distribuído, uma arquitetura reflexiva aliada a técnicas do domínio da tolerância a falhas para promover a separação entre as atividades de controle, salvamento, recuperação, distribuição e validação de componentes e as funcionalidades executadas pelo próprio componente, a fim de que falhas não venham a prejudicar a disponibilidade, confiabilidade e clareza de determinadas computações. A proposta apóia-se num estudo de caso, implementado na linguagem de programação Java, com seus protocolos de reflexão computacional e de comunicação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Um dos modos de avaliar a confiabilidade de um produto é verificando o comportamento das falhas em testes de uso contínuo. Contudo, essa informação não permite saber em que data a falha ocorrerá. Para resolver esse impasse abordamos na presente dissertação a modelagem dos tempos de falha ao longo do calendário. A modelagem desses tempos permite uma melhor administração do sistema de garantia e assistência técnica, além de possibilitar a empresa estimar e monitorar a confiabilidade do produto. Para proceder com a modelagem, é preciso, inicialmente, conhecer a distribuição de três variáveis: o tempo de vida do produto, em horas de uso contínuo; o tempo de uso do produto, em horas por dia; e o intervalo de tempo entre a manufatura e a venda, em dias. Conhecendo o comportamento dessa variáveis duas alternativas de solução são apresentadas: (a) Modelagem via simulação de Monte Carlo e (b) Modelagem através de solução matemática fechada. São discutidos os casos em que há um ou vários grupos de clientes que utilizam o produto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dados altimétricos do satélite TOPEX/POSEIDON obtidos durante 1993 e 1994 foram utilizados para estudar a dinâmica oceanográfica na região oeste do oceano Atlântico Sul, entre as latitudes de 15°S e 50°S e longitudes de 30°W e 65°W. Simultaneamente, dados hidrográficos (históricos e sinópticos) e imagens termais do sensor AVHRR/NOAA foram utilizados com o objetivo de proporcionar uma comparação com os resultados da altimetria. Características da topografia dinâmica superficial, da variabilidade e anomalias da topografia dinâmica são apresentadas. Imprecisões dos modelos do geóide marinho restringiram o estudo dos padrões da topografia dinâmica supercial e das correntes geostrósficas superficiais, a comprimentos de onda espaciais superiores a 2400 Km. A variabilidade temporal da topografia dinâmica demonstrou um padrão altamente energético na região da Confluência Brasil-Malvinas durante o período. Diferenças sazonais foram observadas com os maiores valores de variabilidade nos meses de inverno e primavera. As anomalias (resíduos) da topografia dinâmica foram utilizadas no estudo de fenômenos transientes, onde um vórtice foi acompanhado acompanhado ao longo do tempo, e em conjunto com imagens AVHRR/NOAA. Feições térmicas superficiais foram confrontadas com anomalias altimétricas de trajetórias específicas, contemporâneas às imagens, apresentando ótima concordância e confirmando a excelente potencialidade do uso conjunto destes dois tipos de dados. Finalmente, a técnica da topografia dinâmica composta (combinação de dados altimétricos e climatológicos) foi utilizada para reconstruir a topografia dinâmica total a partir das anomalias altimétricas, sem a contaminação das imprecisões dos modelos do geóide. O ciclo escolhido corresponde ao mesmo período de um cruzeiro hidrográfico, proporcionando uma comparação entre topografias dinâmicas (e velocidades geostróficas superficiais) estimadas pelos dois conjuntos de dados. A concordãncia entre os dois resultados foi bastante satisfatória, indicado a possibilidade de se gerar estimativas da circulação geostrófica superficial, com boa confiabilidade, apenas com dados do sátelite e dados hidrográficos climatológicos. Concluíndo, o TOPEX/POSEIDON apresenta-se como uma excelente ferramente para o estudo da dinâmica oceanográfica no Atlântico Sul, proporcionando uma análise quasi-sinóptica de qualidade e, principalmente, aumentando o conhecimento desta região.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Geralmente, as populações, incluindo aí os setores produtivos, planejam suas atividades pelo conhecimento antecipado das variações tanto da temperatura quanto da precipitação pluvial baseados nos ciclos anuais e sazonais conhecidos. Os benefícios, confiabilidade e utilização das previsões climáticas têm sido objeto de análise e discussão na comunidade científica mundial. O desenvolvimento e aplicação dessas previsões para determinadas partes de áreas extensas, atende, de forma mais satisfatória, aos anseios dos setores produtivos e a sociedade como um todo. O objetivo principal desse trabalho foi identificar regiões dos oceanos Atlântico e Pacífico, cuja Temperatura da Superfície do Mar (TSM) possa ser utilizada como preditor potencial em modelos estatísticos de previsão climática de temperaturas máxima e mínima em regiões homogêneas do Estado do Rio Grande do Sul. Este estudo foi desenvolvido com dados de temperaturas máxima e mínima de 40 estações meteorológicas, do Instituto Nacional de Meteorologia e, da Fundação Estadual de Pesquisas Agropecuárias para o período de 1913 a 1998 e dados de TSM em pontos de grade para o período de 1950 a 1998 do National Center for Environmental Prediction. Num tratamento preliminar dos dados, as séries tiveram suas falhas preenchidas utilizando um método de preenchimento, aqui chamado, de “método das correlações”. Com as séries completas, aplicou-se métodos de agrupamento, determinando 4 regiões homogêneas de temperaturas máxima e mínima para o Estado. Foi feito um estudo climatológico dessas regiões e determinadas as relações das temperaturas médias máxima e mínima, de cada uma com TSM dos Oceanos na grade definida. As regiões determinadas representaram bem a fisiografia do Estado e as regiões preditoras apresentaram correlações significativas tanto com a temperatura máxima, quanto com a mínima. Os meses com maior número de preditores, tanto para as temperatura máxima quanto para mínima, foi agosto e o de menor, julho. Correlações diferentes para regiões homogêneas distintas, justificou a utilização da regionalização neste trabalho.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho abordam-se as questões relevantes de uma avaliação analítica de estruturas acabadas, apresentando-se os aspectos fundamentais quanto à inspeção e verificação da sua segurança. Primeiramente, apresenta-se os métodos de avaliação, enfatizando-se as vantagens e restrições do emprego de cada método. Quanto à inspeção, são apresentados e discutidos os principais ítens que devem ser verificados nas estruturas acabadas. :t:nfasemaior é dada à inspeção da resistência do concreto, discutindo-se aspectos de sua variação nas ~struturas e apresentando-se os métodos de ensaio empregados. É proposta uma metodologia para a inspeção do concreto, racionalizando-se o emprego dos métodos não-destrutivos. Por fim, destaca-se os aspectos teóricos da verificação da segurança nas estruturas acabadas e as principais diferenças quanto à introdução da segurança nos projetos de novas estruturas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Replicação de objetos é usada para garantir uma maior disponibilidade de recursos em um sistema distribuído. Porém, com a replicação, surgem problemas como o controle da consistência das réplicas e onde estas réplicas devem estar posicionadas. A consistência é garantida por um protocolo de consistência de réplicas. Para facilitar a implementação dos protocolos de controle de réplicas, pode-se utilizar mecanismos de comunicação de grupo como suporte para a replicação. Outro problema importante que surge com a replicação é o posicionamento das réplicas. A carga de processamento em um sistema distribuído muda continuamente e num determinado instante pode ser necessário mudar a distribuição atual das réplicas pela adição de novas réplicas, remoção de réplicas desnecessárias ou pela mudança de posicionamento das réplicas. Um sistema de gerenciamento de réplicas pode realizar esta tarefa. Este trabalho apresenta o sistema RPM – Replica Placement Manager – responsável por fornecer ao serviço de gerenciamento de réplicas uma lista ordenada de nodos potencialmente ideais, num determinado momento do processamento, para receber uma réplica de um objeto. Esta lista é criada pelo RPM, considerando um pequeno conjunto de variáveis estáticas e dinâmicas, facilmente obtidas nos nodos do sistema distribuído.