1000 resultados para Problemas de qualidade de dados
Resumo:
Nos dias de hoje, com a informatização dos sistemas de informação, as organizações, a nível mundial, são capazes de armazenar todo o tipo de informação por elas gerada. Esta informação é cada vez mais complexa, podendo conter dados de produção, de consumo, de facturação, etc. Sem desprezar o resto da informação produzida, pode dizer-se que os dados administrativos assumem uma relevância especial na gestão dessas organizações. É sobre estes dados que as organizações baseiam todas as tomadas de decisão que definem o seu futuro num ambiente competitivo. Associados a toda a complexidade da informação gerada, estão os problemas de qualidade de dados, muitas vezes desprezados, mas que podem influenciar negativamente as medidas adoptadas e os objectivos traçados. Este capítulo procura, acima de tudo, chamar a atenção para este tipo de problemas, referenciando algumas das suas implicações no âmbito hospitalar. Como resultado, este capítulo apresenta uma sistematização dos vários erros possíveis de constar neste tipo de bases de dados administrativas, contribuindo com alguns exemplos encontrados durante um estudo de qualidade de dados.
Resumo:
Os princípios e a metodologia estatística estão hoje em dia bastante consolidados. As questões práticas sobre a análise dos dados são, em vista das disponibilidades computacionais, cada vez mais importantes. É fundamental o estudo de valores discordantes, por exemplo em problemas de modelação estatística. Aqui tem particular relevo o uso de software “identificando” observações. Em sintonia com um básico estudo de teoria dos outliers todos este s problemas serão abordados.
Resumo:
OBJETIVO: Avaliar a qualidade dos dados populacionais e a cobertura dos registros de óbitos para as Unidades da Federação Brasileira (UF), por sexo, no ano de 1990. MÉTODOS: Os dados populacionais extraídos dos Censos Demográficos foram avaliados através de métodos demográficos clássicos. Os registros de óbitos, extraídos da Fundação Instituto Brasileiro de Geografia e Estatística e do Ministério da Saúde, foram avaliados através de três técnicas de mensuração do sub-registro de óbitos. RESULTADOS: A precisão das declarações das idades das UF, em sua maioria, passou do status de "pouco preciso" ou "moderado" para "preciso" na década de 80. A cobertura dos óbitos, em 1990, foi classificada como "boa" ou "satisfatória" para todos os Estados do Sul, Sudeste, Centro-Oeste e para os do Nordeste, abaixo do Rio Grande do Norte. O restante dos estados foram classificados como "regular" ou "insatisfatório". CONCLUSÕES: Houve uma melhora importante na qualidade das declarações da população recenseada e aumento da cobertura de óbitos e que, para muitas UF, é possível gerar confiáveis indicadores de mortalidade.
Resumo:
OBJETIVO: Verificar a concordância entre as informações constantes no Sistema de Informação sobre Nascidos Vivos (Sinasc) referentes a partos hospitalares e aquelas obtidas por inquérito seccional (padrão-ouro). MÉTODOS: Realizou-se inquérito por amostragem em 2.831 partos hospitalares ocorridos em dez maternidades do município de São Luís, MA, abrangendo cerca de 98% dos nascimentos hospitalares da cidade. O arquivo do Sinasc foi comparado com os dados do inquérito perinatal após a realização de linkage por programa de computador. Foram analisados: a cobertura estimada do Sinasc em relação aos nascimentos hospitalares verificados, o percentual de informação ignorada ou não preenchida e o grau de concordância entre as informações constantes no arquivo do Sinasc com o arquivo perinatal. Na medida da concordância, foram utilizados o indicador "kappa", no caso de variáveis qualitativas, e a correlação intraclasse, em se tratando de variáveis quantitativas. RESULTADOS: A cobertura estimada do Sinasc foi de 75,8% (IC95%; 73,3%-78,2%). Os campos do Sinasc que apresentaram boa confiabilidade foram: peso ao nascer, sexo, hospital de nascimento, tipo de parto e idade materna. As estimativas do baixo peso ao nascer foram semelhantes nas duas pesquisas e a concordância foi alta (kappa=0,94). Entretanto, a prematuridade foi mais alta no inquérito (11,2%) do que no Sinasc (1,7%), e a concordância foi baixa (kappa=0,09). CONCLUSÃO: A cobertura estimada do Sinasc foi baixa. A análise do arquivo do Sinasc mostrou que a cobertura estimada foi baixa; a taxa de baixo peso ao nascer parece ter boa validade e reprodutibilidade; e a taxa de prematuridade está subestimada.
Resumo:
OBJETIVO: Avaliar a qualidade da informação sobre óbito por infarto agudo do miocárdio nos sistemas de informação hospitalar e de mortalidade. MÉTODOS: Foram analisados dados sobre mortalidade hospitalar por infarto agudo do miocárdio, em 2000, utilizando as bases de dados do Sistema de Informação de Mortalidade (SIM) e do Sistema de Informação Hospitalar (SIH/SUS); e numa segunda etapa utilizaram-se de dados obtidos de levantamento direto de prontuários médicos de dois hospitais do Sistema Único de Saúde no município do Rio de Janeiro. Foi feita comparação entre prontuários, declarações de óbitos e formulários de autorização de internação hospitalar. Utilizou-se para confirmação do diagnóstico de infarto agudo do miocárdio critérios da Organização Mundial de Saúde. A concordância entre as informações presentes na declaração de óbito, autorização de internação hospitalar e prontuários foi utilizado o teste de Kappa de Cohen e o coeficiente de correlação intraclasse (ICC). RESULTADOS: O total de óbitos hospitalares por infarto agudo do miocárdio registrados no SIM é expressivamente maior que no SIH/SUS. Foram identificados três fontes que explicam grande parte da discrepância observada: ausência de emissão de autorização de internação hospitalar (32,9%), notificação de outro diagnóstico principal no SIH/SUS (19,2%) e subnotificação do óbito na autorização de internação hospitalar (3,3%). O diagnóstico de infarto foi confirmado em 67,1% dos casos de notificados na declaração de óbito. A sensibilidade da informação sobre óbito por infarto do miocárdio foi de aproximadamente 90% em ambos os sistemas de informação analisados. CONCLUSÕES: Os resultados mostraram ser necessário implementar medidas voltadas para a melhoria da qualidade da informação no SIH/SUS, tais como a padronização de critérios para emissão da autorização de internação hospitalar nas emergências e o treinamento das equipes dos sistemas de registro.
Resumo:
Neste artigo apresenta-se a ferramenta SmartClean, destinada à detecção e correcção de problemas de qualidade dos dados. Comparativamente às ferramentas actualmente existentes, o SmartClean possui a mais-valia de não obrigar a que a sequência de execução das operações seja especificada pelo utilizador. Para tal, foi concebida uma sequência segundo a qual os problemas são manipulados (i.e., detectados e corrigidos). A existência da sequência suporta ainda a execução incremental das operações. No artigo, a arquitectura subjacente à ferramenta é exposta, sendo detalhados os seus componentes. A validade da ferramenta e, consequentemente, da arquitectura é comprovada através da apresentação do caso de estudo efectuado. Apesar do SmartClean possuir potencialidades de limpeza de dados noutros níveis (e.g., relação), no artigo apenas são descritas as relativas ao nível do valor individual do atributo.
Resumo:
O surgimento de novos modelos de negócio, nomeadamente o estabelecimento de parcerias entre organizações, a possibilidade de as empresas poderem adicionar informação existente na web, em especial na web semânjtica, à informação de que dispõem, levou ao acentuar de alguns problemas já existentes nas bases de dados, nomeadamente no que respeita a problemas de qualidade de dados. Dados de má qualidade podem levar à perda de competitividade das organizações que os detêm, podendo inclusive levar ao seu desaparecimento, uma vez que muitas das suas tomadas de decisão são baseadas nestes dados. Por este motivo torna-se relevante a limpeza de dados que é um processo automático de detecção e eventual correção dos problemas de qualidade de dados, tais como registos duplicados, dados incompletos, e/ou inconsistentes. As abordagens atualmente existentes para solucionar estes problemas, encontram-se muito ligadas ao esquema das bases de dados e a domínios específicos. Para que as operações de limpeza de dados possam ser utilizadas em diferentes repositórios, torna-se necessário o entendimento, por parte dos sistemas computacionais, desses mesmos dados, ou seja, é necessária uma semântica associada. A solução apresentada passa pelo uso de ontologias, como forma de representação das operações de limpeza, para solucionar os problemas de heterogeneidade semântica, quer ao nível dos dados existentes nos diversos repositórios, quer ao nível da especificação das operações de limpeza. Estando as operações de limpeza definidas ao nível conceptual e existindo mapeamentos entre as ontologias de domínio e a ontologia associada a uma qualquer base de dados, aquelas poderão ser instanciadas e propostas ao utilizador para serem executadas sobre essa base de dados, permitindo assim a sua interoperabilidade.
Resumo:
OBJETIVO: Avaliar a qualidade dos dados do sistema de vigilância epidemiológica na detecção de casos suspeitos de dengue internados em hospitais públicos e conveniados do Sistema Único de Saúde. MÉTODOS: O estudo foi realizado em Belo Horizonte, Estado de Minas Gerais, no período de 1996 a junho de 2002. Foram adotados os critérios de avaliação de qualidade dos dados de vigilância da dengue do Guidelines for Evaluating Public Health Surveillance Systems. Como padrão de referência foram utilizados os prontuários médicos revisados e validados dos pacientes internados e registrados na rede hospitalar do sistema público de saúde. Foram obtidos 266 (90%) do total de 294 prontuários selecionados, 230 (86,5%) preencheram o critério de caso suspeito de dengue. Para verificar associação entre o sub-registro e variáveis selecionadas, utilizou-se o odds ratio com intervalo de confiança de 95% em modelo de regressão logística. Para avaliar a sensibilidade do sistema de notificação, utilizou-se a proporção de casos internados no sistema hospitalar que estavam notificados; para o valor preditivo positivo, utilizou-se a proporção de casos confirmados por laboratório e registrados no sistema de notificação. RESULTADOS: Verificou-se sub-registro de 37% dos casos no período de 1997 a 2002, com cinco vezes mais chances de ocorrência nos três primeiros anos (OR=5,93; IC 95%: 2,50-14,04), oito vezes mais nas internações em hospitais conveniados que naqueles públicos (OR=8,42, IC 95%: 2,26-31,27). O sub-registro associou-se também aos casos clínicos internados sem manifestações hemorrágicas (OR=2,81; IC 95%: 1,28-6,15), e sem exames laboratoriais específicos para dengue no prontuário (OR=4,07; IC 95%: 1,00-16,52). A sensibilidade estimada do sistema de notificação foi de 63% e o valor preditivo positivo foi de 43%. CONCLUSÕES: Os casos de dengue registrados no sistema de notificação foram aqueles de evolução mais grave e não representaram a totalidade de casos internados no sistema público de saúde, superestimando a taxa de letalidade da doença. Os resultados indicam a necessidade de mudanças no modelo da vigilância e de implementação da capacitação dos profissionais de saúde, principalmente aqueles que trabalham em hospitais conveniados.
Resumo:
Este artigo propõe uma nova metodologia para Pequenas e Médias Empresas (PME), destinada a caracterizar o seu desempenho na gestão da qualidade, destacando pontos fracos e áreas de melhoria. A metodologia visa identificar as principais causas dos problemas de qualidade e ajuda a estabelecer prioridades na definição de iniciativas de melhoria. Trata-se de uma metodologia de diagnóstico fácil de implementar por empresas com baixo nível de maturidade na gestão da qualidade. A metodologia está organizada em seis etapas diferentes que incluem a recolha de informação sobre processos e subprocessos de gestão da qualidade, definidos com base na Trilogia de Juran, e sobre categorias de resultados preestabelecidas. Para aperfeiçoar e validar a metodologia proposta, foram realizados dois casos de estudo. A aplicação da metodologia foi bem sucedida em ambos os casos. Posteriormente, foi elaborado um relatório sobre o estado da qualidade em cada empresa, que inclui a definição de prioridades de eliminação das causas na origem de maus desempenhos. A metodologia pode ser adaptada para melhor se adequar às necessidades de empresas de diferentes setores, quer pela revisão dos seus processos, quer pela integração de novas ferramentas ou pelo aperfeiçoamento das existentes. Devido à sua simplicidade e abrangência, considera-se que a metodologia desenvolvida pode ser aplicada como ferramenta de autodiagnóstico para a melhoria contínua.
Resumo:
Perfiladores acústicos Doppler de corrente são, na atualidade, a principal opção para medição de vazão e monitoramento hidrodinâmico de cursos d'água, em substituição aos métodos tradicionais. A disseminação desse tipo de equipamento deve-se, principalmente, às suas vantagens operativas, que vão da rapidez de medição até o maior detalhamento e quantidade de informações geradas sobre a hidrodinâmica das seções hidrométricas. Assim como no emprego de métodos e equipamentos tradicionais, o uso de perfiladores acústicos Doppler deve ser pautado pela busca da qualidade dos dados, uma vez que estes são a base para projetos e gestão de obras e sistemas de recursos hídricos. Nesse sentido, o trabalho apresenta uma análise das incertezas de medição de uma campanha hidrométrica realizada no Rio Sapucaí (Piranguinho-MG), utilizando dois perfiladores Doppler distintos: um ADCP Rio Grande 1.200 kHz e um Qmetrix Qliner. Foram realizadas 10 medições consecutivas com cada equipamento, seguindo-se os protocolos de qualidade existentes na literatura e, posteriormente, uma análise de incerteza do Tipo A (ou seja, análise estatística de várias observações independentes das grandezas de entrada sob as mesmas condições). As medições do ADCP e Qliner apresentaram, respectivamente, incertezas-padrão de 0,679% e 0,508% em relação às médias. Tais resultados são satisfatórios e aceitáveis quando comparados a referências da literatura, indicando a validade do uso de perfiladores Doppler para a expansão de redes fluviométricas e geração de dados hidrológicos.
Resumo:
No início dos anos 90, o Brasil e a Grã-Bretanha, juntos, deram um passo, no sentido de produzir estudos microclimáticos dentro da área que compreende a floresta Amazônica, visando quantificar e verificar o impacto do desmatamento dessa floresta sobre o clima. Para isso escolheu-se três regiões para a instalação de estações meteorológicas automáticas de superfície (Estados do Amazonas, Pará e Rondônia). Cada região recebeu uma estação em uma área florestada e outra em área desmatada. Esse projeto binacional foi chamado de "ESTUDO ANGLO-BRASILEIRO DE OBSERVAÇÃO DO CLIMA DA AMAZONIA, (ABRACOS - Anglo-Braz11ian Amazonian Climate Observation Study)". Esse trabalho apresenta a aplicação de dois métodos de controle de qualidade para os dados coletados pelas estações meteorológicas automáticas de superfície. Um desses métodos leva em consideração o comportamento estatístico das variáveis coletadas, e o outro método o comportamento físico e climatológico das mesmas. Por último se faz o uso desses dados com e sem erros no cálculo da evapotranspiração, no sentido de se ver o impacto de uma informação errônea no cálculo de um parametro. O método estatístico demonstrou ter um bom potencial na detecção de erros pequenos (com tamanhos variando de 5 a 20%).(Continua). Esse método apresentou rendimentos na obtenção de erros que oscilam entre 43% e 80% para a radiação solar global. Quando se testou os valores da temperatura do ar e temperatura do bulbo úmido, obteve-se um dos melhores rendimentos do método estatístico, que chegou a 91%. Os piores desempenhos foram quando se testou a radiação refletida, alcançando-se apenas 11,1%. O método físico mostrou-se eficiente na detecção de erros maiores (30 a 90%). Os melhores desempenhos aconteceram quando se testaram as temperaturas. Em um caso o rendimento chegou a 100%. Em seu pior desempenho o método detectou apenas 20% (Teste" A" ). O método físico somente detectou informações suspeitas, dentro dos erros inseridos nas séries de dados.
Resumo:
Acoustic Doppler current profilers are currently the main option for flow measurement and hydrodynamic monitoring of streams, replacing traditional methods. The spread of such equipment is mainly due to their operational advantages ranging from speed measurement to the greatest detail and amount of information generated about the hydrodynamics of hydrometric sections. As in the use of traditional methods and equipments, the use of acoustic Doppler profilers should be guided by the pursuit of data quality, since these are the basis for project and management of water resources constructions and systems. In this sense, the paper presents an analysis of measurement uncertainties of a hydrometric campaign held in Sapucaí River (Piranguinho-MG), using two different Doppler profilers - a Rio Grande ADCP 1200 kHz and a Qmetrix Qliner. 10 measurements were performed with each equipment consecutively, following the literature quality protocols, and later, a Type A uncertainty analysis (statistical analysis of several independent observations of the input under the same conditions). The measurements of the ADCP and Qliner presented, respectively, standard uncertainties of 0.679% and 0.508% compared with the averages. These results are satisfactory and acceptable when compared to references in the literature, indicating that the use of Doppler profilers is valid for expansion and upgrade of streamflow measurement networks and generation of hydrological data.
Resumo:
This paper presents the SmartClean tool. The purpose of this tool is to detect and correct the data quality problems (DQPs). Compared with existing tools, SmartClean has the following main advantage: the user does not need to specify the execution sequence of the data cleaning operations. For that, an execution sequence was developed. The problems are manipulated (i.e., detected and corrected) following that sequence. The sequence also supports the incremental execution of the operations. In this paper, the underlying architecture of the tool is presented and its components are described in detail. The tool's validity and, consequently, of the architecture is demonstrated through the presentation of a case study. Although SmartClean has cleaning capabilities in all other levels, in this paper are only described those related with the attribute value level.