999 resultados para Bancos - Processamento de dados


Relevância:

20.00% 20.00%

Publicador:

Resumo:

OBJETIVOS: Nenhum estudo de base populacional foi realizado para mostrar o uso potencial de diagnóstico virológico do vírus rábico. O estudo realizado teve por objetivo estimar parâmetros de acurácia para o isolamento de vírus rábico em célula McCoy, como um método alternativo, e comparar com o uso da célula N2A, considerada método de referência. MÉTODOS: Foi realizado um inquérito em 120 morcegos coletados aleatoriamente, na Mata Atlântica, no Estado de São Paulo. Utilizou-se a reação de imunofluorescência para a detecção do vírus rábico isolado no cérebro desses morcegos, avaliado nos dois sistemas de cultivos celulares. Dois bancos de dados foram formados com os resultados. A análise foi feita com o programa Computer Methods for Diagnosis Tests (CMDT), utilizando a técnica de two-graph-receiver operating characteristic (TG-ROC) para obter os parâmetros de sensibilidade e especificidade, além de outros indicadores, tais como eficácia, valor preditivo positivo, valor preditivo negativo e razão de verossimilhança. RESULTADOS: A célula N2A apresentou 90% de sensibilidade e especificidade, enquanto que a célula McCoy obteve 95% para os mesmos parâmetros. Os valores foram baseados em pontos de cortes otimizados para cada uma das células. CONCLUSÕES: Observou-se que a célula McCoy permite obter estimativas de acurácia superiores aos resultados observados com a célula de N2A, representando um método alternativo eficaz no isolamento do vírus rábico.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

OBJETIVO: Avaliar a qualidade da informação sobre óbito por infarto agudo do miocárdio nos sistemas de informação hospitalar e de mortalidade. MÉTODOS: Foram analisados dados sobre mortalidade hospitalar por infarto agudo do miocárdio, em 2000, utilizando as bases de dados do Sistema de Informação de Mortalidade (SIM) e do Sistema de Informação Hospitalar (SIH/SUS); e numa segunda etapa utilizaram-se de dados obtidos de levantamento direto de prontuários médicos de dois hospitais do Sistema Único de Saúde no município do Rio de Janeiro. Foi feita comparação entre prontuários, declarações de óbitos e formulários de autorização de internação hospitalar. Utilizou-se para confirmação do diagnóstico de infarto agudo do miocárdio critérios da Organização Mundial de Saúde. A concordância entre as informações presentes na declaração de óbito, autorização de internação hospitalar e prontuários foi utilizado o teste de Kappa de Cohen e o coeficiente de correlação intraclasse (ICC). RESULTADOS: O total de óbitos hospitalares por infarto agudo do miocárdio registrados no SIM é expressivamente maior que no SIH/SUS. Foram identificados três fontes que explicam grande parte da discrepância observada: ausência de emissão de autorização de internação hospitalar (32,9%), notificação de outro diagnóstico principal no SIH/SUS (19,2%) e subnotificação do óbito na autorização de internação hospitalar (3,3%). O diagnóstico de infarto foi confirmado em 67,1% dos casos de notificados na declaração de óbito. A sensibilidade da informação sobre óbito por infarto do miocárdio foi de aproximadamente 90% em ambos os sistemas de informação analisados. CONCLUSÕES: Os resultados mostraram ser necessário implementar medidas voltadas para a melhoria da qualidade da informação no SIH/SUS, tais como a padronização de critérios para emissão da autorização de internação hospitalar nas emergências e o treinamento das equipes dos sistemas de registro.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho tem como objetivo a apresentação e a implementação de uma solução de gestão de documentos e dados de cadastro de forma eletrónica, leia-se, Encomendas, Guias de Remessa, Clientes e Artigos. A mesma é baseada em dispositivos móveis, no sentido de permitir dar mobilidade na troca de informação, às empresas que detenham atualmente processos de integração de sistemas EDI com empresas da grande distribuição. A solução permite que os vendedores / comerciais das empresas na área do retalho, que normalmente estão fisicamente deslocados ou viajam durante bastante tempo, sem ir à sede da empresa regularmente, possam realizar as operações necessárias em qualquer altura, até mesmo diretamente no cliente. As operações podem consistir por exemplo, no envio de encomendas para a sede (servidor) para processamento, adicionar / criar novos clientes, sincronizar o sistema com a sede para permitir a atualização dos dados de artigos e clientes. O uso de dispositivos móveis, que podem ter a capacidade de realização de chamadas, receção de emails e acesso à internet, irão permitir que os colaboradores tirem partidos das capacidades desses equipamentos, e usem o mesmo para efetuar de forma descentralizada, operações que teriam que efetuar na Sede ou num computador pessoal / portátil, desta forma, as empresas podem ter uma redução de custos considerável. Atualmente, praticamente todas as empresas fornecedoras da grande distribuição que trabalhem com empresas da grande distribuição já têm implementado nas suas Sedes / Empresas processos de integração, processos de impressão e gestão EDI com base em formatos standard da norma EDIFACT das Nações Unidas (UN) [13], por exemplo, para receção de Encomendas, Resposta a Encomendas, envio de Guias de Remessa, Faturas. Esta solução permite o reaproveitamento dos processos e soluções já existentes e implementados, sendo possível desta forma realizar um alargamento dos clientes / parceiros abrangidos com um investimento bastante reduzido e permitindo a redução de custos operacionais, e de erros devido à inserção manual. A solução apresentada tenta tirar partido dos standards mais aceites e implementados em projetos EAI / EDI na industria da grande distribuição em Portugal (retalho), tal como o EDIFACT, AS2 / WS e é suportada em tecnologias Microsoft. Todo o trabalho foi feito com base nas particularidades da lei Portuguesa e nas recomendações da GS1.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

OBJETIVO: Verificar a incorporação dos sistemas de informação disponíveis nos processos municipais de tomada de decisão no setor saúde, dado que a informação técnico-científica vem se constituindo num instrumento central dos gestores tanto do setor privado como público. MÉTODOS: Foram realizados quatro estudos de caso em municípios paulistas de diferentes portes e graus de complexidade dos sistemas de saúde (1998-2000), utilizando-se métodos e instrumentos quantitativos (indicadores epidemiológicos, demográficos, econômico-financeiros e sociais) e qualitativos (entrevistas com os principais atores identificados e grupo focal). Na análise dos dados lançou-se mão do método de "triangulação", estabelecendo articulação entre eles. RESULTADOS: A estratégia de implantação do Sistema Único de Saúde conforma o padrão de consumo das informações dos grandes bancos de dados de instituições públicas e de produção local de informações voltado predominantemente para a dimensão financeira, independentemente do tamanho do município, complexidade do sistema de saúde local e da modalidade de gestão. CONCLUSÕES: As informações disponíveis nos bancos de dados são consideradas no geral defasadas com relação às necessidades imediatas da gestão; a infra-estrutura de equipamentos e a capacitação dos recursos humanos são avaliadas como precárias para sua incorporação no processo decisório; as informações são utilizadas sobretudo em prestação de contas já que as políticas de saúde são concebidas fora do município e sob a forma de convênios e programas com o estado e o governo federal.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Faz-se nesta dissertação a análise do movimento humano utilizando sinais de ultrassons refletidos pelos diversos membros do corpo humano, designados por assinaturas de ultrassons. Estas assinaturas são confrontadas com os sinais gerados pelo contato dos membros inferiores do ser humano com o chão, recolhidos de forma passiva. O método seguido teve por base o estudo das assinaturas de Doppler e micro-Doppler. Estas assinaturas são obtidas através do processamento dos ecos de ultrassons recolhidos, com recurso à Short-Time Fourier Transform e apresentadas sobre a forma de espectrograma, onde se podem identificar os desvios de frequência causados pelo movimento das diferentes partes do corpo humano. É proposto um algoritmo inovador que, embora possua algumas limitações, é capaz de isolar e extrair de forma automática algumas das curvas e parâmetros característicos dos membros envolvidos no movimento humano. O algoritmo desenvolvido consegue analisar as assinaturas de micro-Doppler do movimento humano, estimando diversos parâmetros tais como o número de passadas realizadas, a cadência da passada, o comprimento da passada, a velocidade a que o ser humano se desloca e a distância percorrida. Por forma a desenvolver, no futuro, um classificador capaz de distinguir entre humanos e outros animais, são também recolhidas e analisadas assinaturas de ultrassons refletidas por dois animais quadrúpedes, um canino e um equídeo. São ainda estudadas as principais características que permitem classificar o tipo de animal que originou a assinatura de ultrassons. Com este estudo mostra-se ser possível a análise de movimento humano por ultrassons, havendo características nas assinaturas recolhidas que permitem a classificação do movimento como humano ou não humano. Do trabalho desenvolvido resultou ainda uma base de dados de assinaturas de ultrassons de humanos e animais que permitirá suportar trabalho de investigação e desenvolvimento futuro.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste artigo apresenta-se a ferramenta SmartClean, destinada à detecção e correcção de problemas de qualidade dos dados. Comparativamente às ferramentas actualmente existentes, o SmartClean possui a mais-valia de não obrigar a que a sequência de execução das operações seja especificada pelo utilizador. Para tal, foi concebida uma sequência segundo a qual os problemas são manipulados (i.e., detectados e corrigidos). A existência da sequência suporta ainda a execução incremental das operações. No artigo, a arquitectura subjacente à ferramenta é exposta, sendo detalhados os seus componentes. A validade da ferramenta e, consequentemente, da arquitectura é comprovada através da apresentação do caso de estudo efectuado. Apesar do SmartClean possuir potencialidades de limpeza de dados noutros níveis (e.g., relação), no artigo apenas são descritas as relativas ao nível do valor individual do atributo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O surgimento de novos modelos de negócio, nomeadamente o estabelecimento de parcerias entre organizações, a possibilidade de as empresas poderem adicionar informação existente na web, em especial na web semânjtica, à informação de que dispõem, levou ao acentuar de alguns problemas já existentes nas bases de dados, nomeadamente no que respeita a problemas de qualidade de dados. Dados de má qualidade podem levar à perda de competitividade das organizações que os detêm, podendo inclusive levar ao seu desaparecimento, uma vez que muitas das suas tomadas de decisão são baseadas nestes dados. Por este motivo torna-se relevante a limpeza de dados que é um processo automático de detecção e eventual correção dos problemas de qualidade de dados, tais como registos duplicados, dados incompletos, e/ou inconsistentes. As abordagens atualmente existentes para solucionar estes problemas, encontram-se muito ligadas ao esquema das bases de dados e a domínios específicos. Para que as operações de limpeza de dados possam ser utilizadas em diferentes repositórios, torna-se necessário o entendimento, por parte dos sistemas computacionais, desses mesmos dados, ou seja, é necessária uma semântica associada. A solução apresentada passa pelo uso de ontologias, como forma de representação das operações de limpeza, para solucionar os problemas de heterogeneidade semântica, quer ao nível dos dados existentes nos diversos repositórios, quer ao nível da especificação das operações de limpeza. Estando as operações de limpeza definidas ao nível conceptual e existindo mapeamentos entre as ontologias de domínio e a ontologia associada a uma qualquer base de dados, aquelas poderão ser instanciadas e propostas ao utilizador para serem executadas sobre essa base de dados, permitindo assim a sua interoperabilidade.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nos dias de hoje, com a informatização dos sistemas de informação, as organizações, a nível mundial, são capazes de armazenar todo o tipo de informação por elas gerada. Esta informação é cada vez mais complexa, podendo conter dados de produção, de consumo, de facturação, etc. Sem desprezar o resto da informação produzida, pode dizer-se que os dados administrativos assumem uma relevância especial na gestão dessas organizações. É sobre estes dados que as organizações baseiam todas as tomadas de decisão que definem o seu futuro num ambiente competitivo. Associados a toda a complexidade da informação gerada, estão os problemas de qualidade de dados, muitas vezes desprezados, mas que podem influenciar negativamente as medidas adoptadas e os objectivos traçados. Este capítulo procura, acima de tudo, chamar a atenção para este tipo de problemas, referenciando algumas das suas implicações no âmbito hospitalar. Como resultado, este capítulo apresenta uma sistematização dos vários erros possíveis de constar neste tipo de bases de dados administrativas, contribuindo com alguns exemplos encontrados durante um estudo de qualidade de dados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

OBJETIVO: Avaliar a qualidade dos dados do sistema de vigilância epidemiológica na detecção de casos suspeitos de dengue internados em hospitais públicos e conveniados do Sistema Único de Saúde. MÉTODOS: O estudo foi realizado em Belo Horizonte, Estado de Minas Gerais, no período de 1996 a junho de 2002. Foram adotados os critérios de avaliação de qualidade dos dados de vigilância da dengue do Guidelines for Evaluating Public Health Surveillance Systems. Como padrão de referência foram utilizados os prontuários médicos revisados e validados dos pacientes internados e registrados na rede hospitalar do sistema público de saúde. Foram obtidos 266 (90%) do total de 294 prontuários selecionados, 230 (86,5%) preencheram o critério de caso suspeito de dengue. Para verificar associação entre o sub-registro e variáveis selecionadas, utilizou-se o odds ratio com intervalo de confiança de 95% em modelo de regressão logística. Para avaliar a sensibilidade do sistema de notificação, utilizou-se a proporção de casos internados no sistema hospitalar que estavam notificados; para o valor preditivo positivo, utilizou-se a proporção de casos confirmados por laboratório e registrados no sistema de notificação. RESULTADOS: Verificou-se sub-registro de 37% dos casos no período de 1997 a 2002, com cinco vezes mais chances de ocorrência nos três primeiros anos (OR=5,93; IC 95%: 2,50-14,04), oito vezes mais nas internações em hospitais conveniados que naqueles públicos (OR=8,42, IC 95%: 2,26-31,27). O sub-registro associou-se também aos casos clínicos internados sem manifestações hemorrágicas (OR=2,81; IC 95%: 1,28-6,15), e sem exames laboratoriais específicos para dengue no prontuário (OR=4,07; IC 95%: 1,00-16,52). A sensibilidade estimada do sistema de notificação foi de 63% e o valor preditivo positivo foi de 43%. CONCLUSÕES: Os casos de dengue registrados no sistema de notificação foram aqueles de evolução mais grave e não representaram a totalidade de casos internados no sistema público de saúde, superestimando a taxa de letalidade da doença. Os resultados indicam a necessidade de mudanças no modelo da vigilância e de implementação da capacitação dos profissionais de saúde, principalmente aqueles que trabalham em hospitais conveniados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mestrado em Engenharia Informática

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mestrado em Engenharia Electrotécnica e de Computadores

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Estudou-se a relação entre a segurança da vinculação e a qualidade do processamento sensorial na primeira infância. Para o efeito, seleccionou-se uma amostra normativa de 40 díades mãe-bebé, com crianças entre os 11 e os 18 meses. Avaliou-se a qualidade da vinculação, observando a díade no procedimento Situação Estranha. Classificaram-se 17 (42,5%) das crianças no grupo de vinculação segura, sendo que as restantes 23 (57,5%) revelaram uma vinculação não segura. A qualidade do processamento sensorial avaliou-se através do Teste de Funções Sensoriais. Constatou-se que a segurança da vinculação infantil associava-se a um score agregando quatro factores ambientais (nível sócio-económico dos pais; existência de internamentos hospitalares; coeficiente de número de irmãos; local onde a criança passa o dia). O Teste de Funções Sensoriais não apresentou valor prognóstico relativamente ao tipo de vinculação. Porém, a boa qualidade no processamento da informação sensorial parece constituir um factor de resiliência no desenvolvimento da vinculação.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Jornadas "Ciência nos Açores - que futuro?", Biblioteca Pública e Arquivo Regional de Ponta Delgada, Largo do Colégio, Ponta Delgada, 7-8 de junho.