997 resultados para Dados de testes clínicos


Relevância:

20.00% 20.00%

Publicador:

Resumo:

É do conhecimento geral que muitos professores ensinam os alunos a ouvir, cantar e compor, mas usam testes escritos para avaliar as aprendizagens. Este facto revela que, por um lado, há quem tenha a ideia que os testes escritos estão mesmo a avaliar as práticas musicais e, por outro lado, também há quem considere que é muito difícil e inconsistente avaliar as práticas musicais porque a Música tem um carácter transitório, efémero, imaterial. Além do problema ser interessante, ele é abrangente porque existe tanto entre os professores especialistas de Música como entre os professores generalistas de Educação de Infância e de 1º Ciclo. A experiência levada a cabo nos últimos três anos no Mestrado em Ensino de Educação Musical no Ensino Básico sobre a forma de avaliar as aprendizagens dos alunos em Educação Musical mantém os testes escritos para avaliar os conhecimentos teóricos, mas introduz um instrumento de avaliação das práticas musicais, as grelhas de descritores de desempenho. Estas grelhas, ainda que mantendo princípios orientadores comuns, são sempre feitas à medida para cada situação específica de obra, atividade musical, alunos e são aplicadas não só em observação direta, mas também sobre registos áudio/vídeo. Estes instrumentos são construídos pelos docentes e não em conjunto com os alunos, mas são-lhes apresentados e explicados desde o início de cada unidade didática, usados regulamente para autoavaliação formativa e nas apresentações finais para avaliação sumativa. Desta forma os alunos sabem desde o início onde se espera que cheguem e sabem em cada momento do processo em que ponto se encontram e que problemas/dificuldades musicais devem ser ultrapassados. Em cada atividade comparámos a autoavaliação dos alunos com a avaliação dos professores e verificámos em todas as situações uma elevada correlação positiva (r > 0,9). Teremos ainda que consolidar os dados já obtidos pelo que esperamos o envolvimento de mais professores. A possibilidade de divulgar a solução aqui apresentada, nomeadamente, através de ações de formação contínua, permitirá um evidente aumento da consistência e fiabilidade da avaliação das práticas musicais em Educação Musical.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

OBJETIVO: Analisar a idade como fator prognóstico no câncer de mama em estádio clínico inicial. MÉTODOS: Estudo retrospectivo que analisou as características clínicas e a sobrevida livre de doença de 280 pacientes entre 25 e 81 anos com câncer de mama estágio clínico I e II com acompanhamento em hospital de Porto Alegre (RS), de 1995 a 2000. Dados clínicos, patológicos, tratamento e desfechos foram extraídos dos prontuários das pacientes. As pacientes foram divididas em dois grupos conforme a idade ao diagnóstico (<40 anos e >40 anos). Os dois grupos foram comparados quanto ao estágio clínico, histologia, expressão de receptores hormonais, terapia e radioterapia utilizando o teste qui-quadrado e/ou exato de Fisher e para análise de sobrevida, o teste de long-rank e método de Kaplan-Meier. RESULTADOS: Do total de 280 mulheres estudadas, 54 (19,3%) tinham até 40 anos de idade. Ambos os grupos de pacientes eram similares em estágio clínico, histologia e expressão de receptores hormonais. A proporção de pacientes com sobrevida livre de doença em seguimento de 56 meses foi significativamente maior nas pacientes acima de 40 anos (84% versus 70%). Proporcionalmente, as pacientes mais jovens receberam mais terapia adjuvante (88,8% versus 77,8%). Houve diferença significativa na probabilidade das mulheres acima de 40 anos de permanecerem livre de doença (84%), sendo mais evidente quando comparadas às pacientes com < 40 anos em estágio clínico I. CONCLUSÕES: Os achados confirmam que mulheres de até 40 anos com câncer de mama inicial apresentam um pior prognóstico. Entretanto, tal prognóstico parece não estar relacionado a maior número de casos com receptores hormonais negativos. Pacientes jovens que permaneceram livre de doença receberam mais terapia adjuvante, sugerindo efeito positivo da quimioterapia e hormonioterapia.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho apresenta os resultados dos estudos geotécnicos e de uma base de dados da zona ribeirinha de Vila Nova de Gaia, com o objectivo de compreender melhor os aspectos geotécnicos em ambiente urbano numa área sensível com um registo histórico de instabilidade de taludes rochosos. Além disso, os escassos estudos científicos recentes de natureza geológica e geotécnica em Vila Nova de Gaia justificam o estudo exploratório da geotecnia urbana da zona ribeirinha de Vila Nova de Gaia. A importância de Vila Nova de Gaia como a terceira maior cidade portuguesa e como centro de intensa actividade económica e cultural despoleta uma constante necessidade de expansão. O aumento da densidade populacional acarreta a realização de projectos complexos de engenharia, utilizando o subsolo para a construção e, com frequência, em terrenos com características geotécnicas desfavoráveis. As cidades de Vila Nova de Gaia e do Porto foram sendo edificadas ao longo de encostas numa plataforma litoral caracterizada por uma vasta área aplanada, inclinando ligeiramente para Oeste. Esta plataforma foi cortada pelo Rio Douro num vale encaixado de vertentes abruptas, nas quais se localizam as zonas ribeirinhas das duas cidades. Este trabalho envolveu, inicialmente, uma caracterização topográfica, morfoestrutural, geotectónica e geomecânica da área de estudo e, numa fase posterior, o desenvolvimento duma base de dados geotécnica. Todos os dados geológicos e geotécnicos locais e os estudos geotécnicos levados a cabo in situ pelas diversas empresas e instituições foram representados cartograficamente numa base apoiada pelos Sistemas de Informação Geográfica (SIG). Esta metodologia inter‐disciplinar foi de grande valor para um melhor conhecimento dos riscos geológico‐geotécnicos ao longo das margens do Rio Douro. De facto, a cartografia geotécnica da zona ribeirinha de Vila Nova de Gaia deve constituir uma ferramenta importante para uma previsão mais rigorosa de futuras instabilidades de taludes e um bom instrumento para a gestão do espaço urbano.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

OBJETIVO: Analisar a associação entre indicadores socioeconômicos, de provisão de serviços públicos odontológicos e de alocação de recursos financeiros em saúde, e identificar se o sentido das associações ocorre em favor da eqüidade vertical. MÉTODOS: Foi realizado um estudo transversal de abordagem ecológica, com dados do Ministério da Saúde referentes a 399 municípios do estado do Paraná, no período de 1998 a 2005. A condição socioeconômica foi aferida por meio do Índice de Desenvolvimento Humano dos municípios, além de indicadores de renda, educação e saneamento básico, os quais foram obtidos nas bases de dados do Instituto Brasileiro de Geografia e Estatística. Os dados foram submetidos a testes estatísticos não-paramétricos: coeficiente de correlação de Spearman, Friedman e Mann-Whitney. RESULTADOS: Houve tendência redistributiva dos recursos federais transferidos aos municípios para o custeio da atenção básica, intensificada a partir do lançamento da Estratégia Saúde da Família. Observou-se expansão das ações de saúde bucal no período analisado, bem como tendência pró-eqüidade na oferta e utilização dos serviços odontológicos em atenção básica. CONCLUSÕES: Houve tendência redistributiva, ou pró-eqüidade, na provisão de serviços odontológicos no estado do Paraná, com maior provisão per capita de recursos ou serviços para municípios com piores indicadores socioeconômicos. Esta tendência se mostrou compatível com as diretrizes programáticas recentes do Ministério da Saúde.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O desenvolvimento de sistemas de localização pedestre com recurso a técnicas de dead reckoning tem mostrado ser uma área em expansão no mundo académico e não só. Existem algumas soluções criadas, no entanto, nem todas as soluções serão facilmente implementadas no mercado, quer seja pelo hardware caro, ou pelo sistema em si, que é desenvolvido tendo em conta um cenário em particular. INPERLYS é um sistema que visa apresentar uma solução de localização pedestre, independentemente do cenário, utilizando recursos que poderão ser facilmente usados. Trata-se de um sistema que utiliza uma técnica de dead reckonig para dar a localização do utilizador. Em cenários outdoor, um receptor GPS fornece a posição do utilizador, fornecendo uma posição absoluta ao sistema. Quando não é possível utilizar o GPS, recorre-se a um sensor MEMS e a uma bússola para se obter posições relativas à última posição válida do GPS. Para interligar todos os sensores foi utilizado o protocolo de comunicações sem fios ZigBee™. A escolha recaiu neste protocolo devido a factores como os seus baixos consumos e o seu baixo custo. Assim o sistema torna-se de uso fácil e confortável para o utilizador, ao contrário de sistemas similares desenvolvidos, que utilizam cabos para interligarem os diferentes componentes do sistema. O sensor MEMS do tipo acelerómetro tem a função de ler a aceleração horizontal, ao nível do pé. Esta aceleração será usada por um algoritmo de reconhecimento do padrão das acelerações para se detectar os passos dados. Após a detecção do passo, a aceleração máxima registada nesse passo é fornecida ao coordenador, para se obter o deslocamento efectuado. Foram efectuados alguns testes para se perceber a eficiência do INPERLYS. Os testes decorreram num percurso plano, efectuados a uma velocidade normal e com passadas normais. Verificou-se que, neste momento, o desempenho do sistema poderá ser melhorado, quer seja a nível de gestão das comunicações, quer a nível do reconhecimento do padrão da aceleração horizontal, essencial para se detectar os passos. No entanto o sistema é capaz de fornecer a posição através do GPS, quando é possível a sua utilização, e é capaz de fornecer a orientação do movimento.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho pretende-se introduzir os conceitos associados à lógica difusa no controlo de sistemas, neste caso na área da robótica autónoma, onde é feito um enquadramento da utilização de controladores difusos na mesma. Foi desenvolvido de raiz um AGV (Autonomous Guided Vehicle) de modo a se implementar o controlador difuso, e testar o desempenho do mesmo. Uma vez que se pretende de futuro realizar melhorias e/ou evoluções optou-se por um sistema modular em que cada módulo é responsável por uma determinada tarefa. Neste trabalho existem três módulos que são responsáveis pelo controlo de velocidade, pela aquisição dos dados dos sensores e, por último, pelo controlador difuso do sistema. Após a implementação do controlador difuso, procedeu-se a testes para validar o sistema onde foram recolhidos e registados os dados provenientes dos sensores durante o funcionamento normal do robô. Este dados permitiram uma melhor análise do desempenho do robô. Verifica-se que a lógica difusa permite obter uma maior suavidade na transição de decisões, e que com o aumento do número de regras é possível tornar o sistema ainda mais suave. Deste modo, verifica-se que a lógica difusa é uma ferramenta útil e funcional para o controlo de aplicações. Como desvantagem surge a quantidade de dados associados à implementação, tais como, os universos de discurso, as funções de pertença e as regras. Ao se aumentar o número de regras de controlo do sistema existe também um aumento das funções de pertença consideradas para cada variável linguística; este facto leva a um aumento da memória necessária e da complexidade na implementação pela quantidade de dados que têm de ser tratados. A maior dificuldade no projecto de um controlador difuso encontra-se na definição das variáveis linguísticas através dos seus universos de discurso e das suas funções de pertença, pois a definição destes pode não ser a mais adequada ao contexto de controlo e torna-se necessário efectuar testes e, consequentemente, modificações à definição das funções de pertença para melhorar o desempenho do sistema. Todos os aspectos referidos são endereçados no desenvolvimento do AGV e os respectivos resultados são apresentados e analisados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho propus-me realizar um Sistema de Aquisição de Dados em Tempo Real via Porta Paralela. Para atingir com sucesso este objectivo, foi realizado um levantamento bibliográfico sobre sistemas operativos de tempo real, salientando e exemplificando quais foram marcos mais importantes ao longo da sua evolução. Este levantamento permitiu perceber o porquê da proliferação destes sistemas face aos custos que envolvem, em função da sua aplicação, bem como as dificuldades, científicas e tecnológicas, que os investigadores foram tendo, e que foram ultrapassando com sucesso. Para que Linux se comporte como um sistema de tempo real, é necessário configura-lo e adicionar um patch, como por exemplo o RTAI ou ADEOS. Como existem vários tipos de soluções que permitem aplicar as características inerentes aos sistemas de tempo real ao Linux, foi realizado um estudo, acompanhado de exemplos, sobre o tipo de arquitecturas de kernel mais utilizadas para o fazer. Nos sistemas operativos de tempo real existem determinados serviços, funcionalidades e restrições que os distinguem dos sistemas operativos de uso comum. Tendo em conta o objectivo do trabalho, e apoiado em exemplos, fizemos um pequeno estudo onde descrevemos, entre outros, o funcionamento escalonador, e os conceitos de latência e tempo de resposta. Mostramos que há apenas dois tipos de sistemas de tempo real o ‘hard’ que tem restrições temporais rígidas e o ‘soft’ que engloba as restrições temporais firmes e suaves. As tarefas foram classificadas em função dos tipos de eventos que as despoletam, e evidenciando as suas principais características. O sistema de tempo real eleito para criar o sistema de aquisição de dados via porta paralela foi o RTAI/Linux. Para melhor percebermos o seu comportamento, estudamos os serviços e funções do RTAI. Foi dada especial atenção, aos serviços de comunicação entre tarefas e processos (memória partilhada e FIFOs), aos serviços de escalonamento (tipos de escalonadores e tarefas) e atendimento de interrupções (serviço de rotina de interrupção - ISR). O estudo destes serviços levou às opções tomadas quanto ao método de comunicação entre tarefas e serviços, bem como ao tipo de tarefa a utilizar (esporádica ou periódica). Como neste trabalho, o meio físico de comunicação entre o meio ambiente externo e o hardware utilizado é a porta paralela, também tivemos necessidade de perceber como funciona este interface. Nomeadamente os registos de configuração da porta paralela. Assim, foi possível configura-lo ao nível de hardware (BIOS) e software (módulo do kernel) atendendo aos objectivos do presente trabalho, e optimizando a utilização da porta paralela, nomeadamente, aumentando o número de bits disponíveis para a leitura de dados. No desenvolvimento da tarefa de hard real-time, foram tidas em atenção as várias considerações atrás referenciadas. Foi desenvolvida uma tarefa do tipo esporádica, pois era pretendido, ler dados pela porta paralela apenas quando houvesse necessidade (interrupção), ou seja, quando houvesse dados disponíveis para ler. Desenvolvemos também uma aplicação para permitir visualizar os dados recolhidos via porta paralela. A comunicação entre a tarefa e a aplicação é assegurada através de memória partilhada, pois garantindo a consistência de dados, a comunicação entre processos do Linux e as tarefas de tempo real (RTAI) que correm ao nível do kernel torna-se muito simples. Para puder avaliar o desempenho do sistema desenvolvido, foi criada uma tarefa de soft real-time cujos tempos de resposta foram comparados com os da tarefa de hard real-time. As respostas temporais obtidas através do analisador lógico em conjunto com gráficos elaborados a partir destes dados, mostram e comprovam, os benefícios do sistema de aquisição de dados em tempo real via porta paralela, usando uma tarefa de hard real-time.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Com a expansão da Televisão Digital e a convergência entre os meios de difusão convencionais e a televisão sobre IP, o número de canais disponíveis tem aumentado de forma gradual colocando o espectador numa situação de difícil escolha quanto ao programa a visionar. Sobrecarregados com uma grande quantidade de programas e informação associada, muitos espectadores desistem sistematicamente de ver um programa e tendem a efectuar zapping entre diversos canais ou a assistir sempre aos mesmos programas ou canais. Diante deste problema de sobrecarga de informação, os sistemas de recomendação apresentam-se como uma solução. Nesta tese pretende estudar-se algumas das soluções existentes dos sistemas de recomendação de televisão e desenvolver uma aplicação que permita a recomendação de um conjunto de programas que representem potencial interesse ao espectador. São abordados os principais conceitos da área dos algoritmos de recomendação e apresentados alguns dos sistemas de recomendação de programas de televisão desenvolvidos até à data. Para realizar as recomendações foram desenvolvidos dois algoritmos baseados respectivamente em técnicas de filtragem colaborativa e de filtragem de conteúdo. Estes algoritmos permitem através do cálculo da similaridade entre itens ou utilizadores realizar a predição da classificação que um utilizador atribuiria a um determinado item (programa de televisão, filme, etc.). Desta forma é possível avaliar o nível de potencial interesse que o utilizador terá em relação ao respectivo item. Os conjuntos de dados que descrevem as características dos programas (título, género, actores, etc.) são armazenados de acordo com a norma TV-Anytime. Esta norma de descrição de conteúdo multimédia apresenta a vantagem de ser especificamente vocacionada para conteúdo audiovisual e está disponível livremente. O conjunto de recomendações obtidas é apresentado ao utilizador através da interacção com uma aplicação Web que permite a integração de todos os componentes do sistema. Para validação do trabalho foi considerado um dataset de teste designado de htrec2011-movielens-2k e cujo conteúdo corresponde a um conjunto de filmes classificados por diversos utilizadores num ambiente real. Este conjunto de filmes possui, para além da classificações atribuídas pelos utilizadores, um conjunto de dados que descrevem o género, directores, realizadores e país de origem. Para validação final do trabalho foram realizados diversos testes dos quais o mais relevante correspondeu à avaliação da distância entre predições e valores reais e cujo objectivo é classificar a capacidade dos algoritmos desenvolvidos preverem com precisão as classificações que os utilizadores atribuiriam aos itens analisados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A crescente complexidade dos sistemas electrónicos associada a um desenvolvimento nas tecnologias de encapsulamento levou à miniaturização dos circuitos integrados, provocando dificuldades e limitações no diagnóstico e detecção de falhas, diminuindo drasticamente a aplicabilidade dos equipamentos ICT. Como forma de lidar com este problema surgiu a infra-estrutura Boundary Scan descrita na norma IEEE1149.1 “Test Access Port and Boundary-Scan Architecture”, aprovada em 1990. Sendo esta solução tecnicamente viável e interessante economicamente para o diagnóstico de defeitos, efectua também outras aplicações. O SVF surgiu do desejo de incutir e fazer com que os fornecedores independentes incluíssem a norma IEEE 1149.1, é desenvolvido num formato ASCII, com o objectivo de enviar sinais, aguardar pela sua resposta, segundo a máscara de dados baseada na norma IEEE1149.1. Actualmente a incorporação do Boundary Scan nos circuitos integrados está em grande expansão e consequentemente usufrui de uma forte implementação no mercado. Neste contexto o objectivo da dissertação é o desenvolvimento de um controlador boundary scan que implemente uma interface com o PC e possibilite o controlo e monitorização da aplicação de teste ao PCB. A arquitectura do controlador desenvolvido contém um módulo de Memória de entrada, um Controlador TAP e uma Memória de saída. A implementação do controlador foi feita através da utilização de uma FPGA, é um dispositivo lógico reconfiguráveis constituído por blocos lógicos e por uma rede de interligações, ambos configuráveis, que permitem ao utilizador implementar as mais variadas funções digitais. A utilização de uma FPGA tem a vantagem de permitir a versatilidade do controlador, facilidade na alteração do seu código e possibilidade de inserir mais controladores dentro da FPGA. Foi desenvolvido o protocolo de comunicação e sincronização entre os vários módulos, permitindo o controlo e monitorização dos estímulos enviados e recebidos ao PCB, executados automaticamente através do software do Controlador TAP e de acordo com a norma IEEE 1149.1. A solução proposta foi validada por simulação utilizando o simulador da Xilinx. Foram analisados todos os sinais que constituem o controlador e verificado o correcto funcionamento de todos os seus módulos. Esta solução executa todas as sequências pretendidas e necessárias (envio de estímulos) à realização dos testes ao PCB. Recebe e armazena os dados obtidos, enviando-os posteriormente para a memória de saída. A execução do trabalho permitiu concluir que os projectos de componentes electrónicos tenderão a ser descritos num nível de abstracção mais elevado, recorrendo cada vez mais ao uso de linguagens de hardware, no qual o VHDL é uma excelente ferramenta de programação. O controlador desenvolvido será uma ferramenta bastante útil e versátil para o teste de PCBs e outras funcionalidades disponibilizadas pelas infra-estruturas BS.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

OBJETIVO:Analisar o efeito de alimentos fortificados com ácido fólico na prevalência de defeitos de fechamento do tubo neural entre nascidos vivos. MÉTODOS: Estudo longitudinal de nascidos vivos do município de Recife (PE) entre 2000 e 2006. Os dados pesquisados foram obtidos do Sistema Nacional de Informações de Nascidos Vivos. Os defeitos de fechamento do tubo neural foram definidos de acordo com o Código Internacional de Doenças-10ª Revisão: anencefalia, encefalocele e espinha bífida. Compararam-se as prevalências nos períodos anterior (2000-2004) e posterior (2005-2006) ao período mandatório à fortificação. Analisou-se a tendência temporal das prevalências trimestrais de defeitos do fechamento do tubo neural pelos testes de Mann-Kendall e Sen's Slope. RESULTADOS: Não se identificou tendência de redução na ocorrência do desfecho (Teste de Mann-Kendall; p= 0,270; Sen's Slope =-0,008) no período estudado. Não houve diferença estatisticamente significativa entre as prevalências de defeitos do fechamento do tubo neural nos períodos anterior e posterior à fortificação dos alimentos com acido fólico de acordo com as características maternas. CONCLUSÕES: Embora não tenha sido observada redução dos defeitos do fechamento do tubo neural após o período mandatório de fortificação de alimentos com ácido fólico, os resultados encontrados não permitem descartar o seu benefício na prevenção desta malformação. São necessários estudos avaliando maior período e considerando o nível de consumo dos produtos fortificados pelas mulheres em idade fértil.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A imagem por Ressonância Magnética (RM) invadiu os cenários clínicos a partir da segunda metade dos anos 80 e comparativamente aos métodos de imagem por Raios X (Rx) ofereceu uma notável combinação entre segurança, quanto à exposição às radiações ionizantes, elevadas resolução espacial e de contraste, no que se refere à qualidade de imagem e, enquanto teste de diagnóstico, uma multifacetada sensibilidade e especificidade. A RM é atualmente um método de diagnóstico integralmente implementado na prática clínica e em crescente desenvolvimento. Com o objetivo de promover uma utilização mais efetiva dos recursos tecnológicos em Portugal, o qual contemple uma efetiva equidade no acesso e uma maior justiça distributiva na Saúde, no que se refere à acessibilidade da população a exames de RM, esta análise exploratória pretendeu: i) conhecer a condição portuguesa quanto às tecnologias por RM, ii) fazer a sua caracterização tecnológica e iii) explorar a distribuição territorial de equipamentos segundo a organização geo-demográfica. Simultaneamente pretendeu-se fazer uma análise das políticas de financiamento da Saúde em Portugal e verificar se existem variáveis associadas às medidas implementadas, ou outras, que possam influenciar esta distribuição. Por fim foram identificadas e são sugeridas medidas para a melhoria da acessibilidade da população aos meios complementares de diagnóstico, por RM, disponíveis e estabelecida uma comparação com a conjuntura Europeia. As dimensões analíticas estudadas foram a Tecnológica, Sociodemográfica e Económica. Através destas foram organizadas sequencialmente as etapas de recolha de informação e os dados obtidos foram estratificados e agrupados segundo as mesmas unidades de análise.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

OBJETIVO: Analisar a literatura nacional e internacional sobre validade de métodos de relacionamentos nominais de base de dados em saúde, com ênfase nas medidas de aferição da qualidade dos resultados. MÉTODOS: Revisão sistemática de estudos de coorte, caso-controles e seccionais que avaliaram a qualidade dos métodos de relacionamento probabilístico de base de dados em saúde. Foi utilizada metodologia Cochrane para revisões sistemáticas. As bases consultadas foram as mais amplamente utilizadas: Medline, LILACS, Scopus, SciELO e Scirus. Não foi utilizado filtro temporal e os idiomas considerados foram: português, espanhol, francês e inglês. RESULTADOS: As medidas sumárias da qualidade dos relacionamentos probabilísticos foram a sensibilidade, a especificidade e o valor preditivo positivo. Dos 202 estudos identificados, após critérios de inclusão, foram analisados 33 artigos. Apenas seis apresentaram dados completos sobre as medidas-sumárias de interesse. Observam-se como principais limitações a ausência de revisor na avaliação dos títulos e dos resumos dos artigos e o não-mascaramento da autoria dos artigos no processo de revisão. Estados Unidos, Reino Unido e Nova Zelândia concentraram as publicações científicas neste campo. Em geral, a acurácia dos métodos de relacionamento probabilístico de bases de dados variou de 74% a 98% de sensibilidade e 99% a 100% de especificidade. CONCLUSÕES: A aplicação do relacionamento probabilístico a bases de dados em saúde tem primado pela alta sensibilidade e uma maior flexibilização da sensibilidade do método, mostrando preocupação com a precisão dos dados a serem obtidos. O valor preditivo positivo nos estudos aponta alta proporção de pares de registros verdadeiramente positivos. A avaliação da qualidade dos métodos empregados tem se mostrado indispensável para validar os resultados obtidos nestes tipos de estudos, podendo ainda contribuir para a qualificação das grandes bases de dados em saúde disponíveis no País.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

OBJETIVO: Estimar a prevalência de letalidade e de complicações decorrentes de angioplastia coronariana em hospitais públicos. MÉTODOS: Foram analisados dados obtidos no Sistema de Autorização Hospitalar do Sistema Único de Saúde referentes aos 2.913 procedimentos de angioplastia coronariana realizados no município do Rio de Janeiro, RJ, de 1999 a 2003. Após amostragem aleatória simples e ponderação de dados, foram analisados 529 prontuários de pacientes, incluindo todos os óbitos, submetidos à angioplastia coronariana em quatro hospitais públicos: federal de ensino, estadual de ensino, federal de referência e estadual de referência. Os testes de comparação entre as letalidades segundo características dos pacientes, co-morbidades, complicações, tipos e indicações de angioplastia coronariana foram feitas com modelos de regressão de Poisson. RESULTADOS: A letalidade cardíaca geral foi de 1,6%, variando de 0,9% a 6,8%. De acordo com grupo etário, a letalidade foi: 0,2% em pacientes com idade inferior a 50 anos; 1,6% entre 50 e 69; e 2,7% acima de 69 anos. A letalidade na angioplastia coronariana primária e de resgate foram elevadas, 17,4% e 13,1%, respectivamente; nas angioplastias eletivas foi de 0,8%. As principais complicações foram dissecção (5% dos pacientes, letalidade cardíaca = 11,5%) e oclusão do vaso (2,6%; letalidade cardíaca = 21,8%). Sangramento ocorreu em 5,9% dos pacientes (letalidade = 5,6%) e em 3,0% houve necessidade de transfusão (letalidade = 12,0%). Infarto agudo aconteceu em 1,1% com letalidade de 38% e o acidente vascular encefálico indicou uma letalidade de 17,5%. CONCLUSÕES: A letalidade foi elevada para as angioplastias primárias e de resgate nos quatro hospitais públicos estudados no período de 1999-2003. As angioplastias coronarianas eletivas apresentaram letalidade e complicações acima do esperado.