939 resultados para Recuperação de Informação
Resumo:
A despeito de suas limitações, os dados do SIHSUS são os mais sistemáticos e abrangentes sobre as Reações Adversas e Intoxicações a medicamentos que provocam hospitalização. Eles demonstram a importância das ações de educação e investigação de casos do Programa Nacional de Farmacovigilância para possibilitar o diagnóstico mais acurado e superação do quadro atual de ocorrência desses agravos, além da possibilidade de o SIH/SUS ser utilizado sistematicamente como fonte de dados na detecção e análise dos problemas relacionados a medicamentos. No período de 1999 a 2007, foram emitidas 6.670.609 AIH (tipo 1), entre as quais 3.611 foram classificadas como internações devidas a RAM e 4.675 como Intoxicações, correspondendo, respectivamente, às taxas médias de 5,41 casos por 104 AIH e 7,2 casos por 104 AIH. Ocorreram 137 óbitos (3,79% das AIH) por RAM e 207 (4,43% das AIH) por Intoxicações na população internada. Tanto as RAM como as Intoxicações tiveram menor chance de levar ao óbito quando comparados às outras causas. Uma característica da distribuição dos RAM foi concentrar 62% das AIH nas faixas etárias de 20 a 59 anos de idade (grupo adulto). Nas Intoxicações merece destaque a elevada proporção de AIH na faixa etária de 0-4 anos (14,29%). As AIH registradas com causas básicas relacionados a RAM foram principalmente de pacientes do sexo masculino, já as Intoxicações foram principalmente de pacientes do sexo feminino. Em ambos tipos de agravos estes pacientes foram internados em hospitais que não faziam parte da Rede de Hospitais Sentinelas do Programa Nacional de Farmacovigilância. No entanto, a probabilidade destes hospitais registrarem as AIH com códigos CID-10 referentes às RAM é maior, o que ocorre provavelmente por estarem mais capacitados em diagnosticar este tipo de agravo. Porém este fato não foi observado para as Intoxicações. Os fármacos que causaram os agravos estudados são psicoativos. Este estudo apresentou algumas evidências sobre a distribuição da morbi-mortalidade provocada por medicamentos entre pacientes internados em hospitais conveniados ao SUS no período de 1999-2007, baseadas nas informações das AIH, que podem ser úteis ao Programa de Farmacovigilância no Estado do Rio de Janeiro.
Resumo:
O problema que justifica o presente estudo refere-se à falta de semântica nos mecanismos de busca na Web. Para este problema, o consórcio W3 vem desenvolvendo tecnologias que visam construir uma Web Semântica. Entre estas tecnologias, estão as ontologias de domínio. Neste sentido, o objetivo geral desta dissertação é discutir as possibilidades de se imprimir semântica às buscas nos agregadores de notícia da Web. O objetivo específico é apresentar uma aplicação que usa uma classificação semi-automática de notícias, reunindo, para tanto, as tecnologias de busca da área de recuperação de informação com as ontologias de domínio. O sistema proposto é uma aplicação para a Web capaz de buscar notícias sobre um domínio específico em portais de informação. Ela utiliza a API do Google Maps V1 para a localização georreferenciada da notícia, sempre que esta informação estiver disponível. Para mostrar a viabilidade da proposta, foi desenvolvido um exemplo apoiado em uma ontologia para o domínio de chuvas e suas consequências. Os resultados obtidos por este novo Feed de base ontológica são alocados em um banco de dados e disponibilizados para consulta via Web. A expectativa é que o Feed proposto seja mais relevante em seus resultados do que um Feed comum. Os resultados obtidos com a união de tecnologias patrocinadas pelo consórcio W3 (XML, RSS e ontologia) e ferramentas de busca em página Web foram satisfatórios para o propósito pretendido. As ontologias mostram-se como ferramentas de usos múltiplos, e seu valor de análise em buscas na Web pode ser ampliado com aplicações computacionais adequadas para cada caso. Como no exemplo apresentado nesta dissertação, à palavra chuva agregaram-se outros conceitos, que estavam presentes nos desdobramentos ocasionados por ela. Isto realçou a ligação do evento chuva com as consequências que ela provoca - ação que só foi possível executar através de um recorte do conhecimento formal envolvido.
Resumo:
Esta revisão de literatura é fruto de indagações sobre a mudança na postura do Estado brasileiro no que concerne à avaliação na atualidade. A temática desta pesquisa é a inserção da ferramenta da avaliação de desempenho da saúde no Brasil. Mais precisamente, o estudo traz uma análise dos índices de desempenho do subsistema público (IDSUS) e do índice elaborado pela Agência Nacional de Saúde (ANS) para avaliar o subsistema privado da saúde (IDSS). Dessa maneira, esta dissertação tem como objetivo analisar os programas de qualificação do sistema de saúde brasileiro através da avaliação do Índice de Desempenho da Saúde Suplementar (IDSS) e do Índice de Desempenho do SUS (IDSUS), considerando seus impactos na relação público-privado do setor saúde. Para dar conta desses objetivos, a pesquisa examinou os Programas de Qualificação do Sistema de Saúde Brasileiro tanto na sua face pública quanto na privada, utilizando as técnicas de análise documental e bibliográfica. A análise transcorreu a partir do levantamento de documentos oficiais e da literatura produzida sobre o tema. Além da leitura de documentos da Agência Nacional de Saúde (ANS), Ministério da Saúde (MS), Instituto de Estudos da Saúde Suplementar (IESS), Federação de Seguros (FENASEG), Associação Brasileira de Medicina de Grupos (ABRAMGE) e Instituto Brasileiro de Geografia e Estatística (IBGE), foram consultados trabalhos acadêmicos e selecionados textos jornalísticos que evidenciaram o processo de implantação e utilização do Programa de Qualificação da Saúde no Brasil. A dissertação então trouxe à tona, admitindo como base a análise do IDSUS recentemente criado e do IDSS, a necessidade de se rediscutir as finalidades das avaliações de desempenho propostas. Tanto o IDSS quanto o IDSUS são iniciativas pioneiras positivas que podem e devem ser aprimoradas, para que possam de fato instrumentalizar o controle social e o gestor na priorização e no planejamento das ações de saúde. O instrumento utilizado pela ANS foi considerado eficaz, democrático e participativo no que diz respeito ao alcance dos objetivos do Programa de Qualificação das Operadoras de Planos de Saúde. O mesmo conseguiu integrar pressupostos de modelos e instrumentos de gestão referenciados pela literatura como modernos e eficazes, como a gestão por resultados. Promoveu não só mais transparência ao subsistema privado, mas induziu, em certa medida, a concorrência do setor. Já em relação à face pública, percebeu-se que mesmo em face da jovialidade da proposta do IDSUS, o mesmo mapeou alguns pontos críticos do subsistema e apontou a necessidade de se trabalhar o setor de forma mais eficiente. Entretanto, esta pesquisa concluiu que ambos os movimentos de avaliação dos subsistemas público e privado não se completam, não dialogam como deveriam, evidenciando uma dificuldade em perceber e organizar o sistema como um todo.
Resumo:
A segmentação dos nomes nas suas partes constitutivas é uma etapa fundamental no processo de integração de bases de dados por meio das técnicas de vinculação de registros. Esta separação dos nomes pode ser realizada de diferentes maneiras. Este estudo teve como objetivo avaliar a utilização do Modelo Escondido de Markov (HMM) na segmentação nomes e endereços de pessoas e a eficiência desta segmentação no processo de vinculação de registros. Foram utilizadas as bases do Sistema de Informações sobre Mortalidade (SIM) e do Subsistema de Informação de Procedimentos de Alta Complexidade (APAC) do estado do Rio de Janeiro no período entre 1999 a 2004. Uma metodologia foi proposta para a segmentação de nome e endereço sendo composta por oito fases, utilizando rotinas implementadas em PL/SQL e a biblioteca JAHMM, implementação na linguagem Java de algoritmos de HMM. Uma amostra aleatória de 100 registros de cada base foi utilizada para verificar a correção do processo de segmentação por meio do modelo HMM.Para verificar o efeito da segmentação do nome por meio do HMM, três processos de vinculação foram aplicados sobre uma amostra das duas bases citadas acima, cada um deles utilizando diferentes estratégias de segmentação, a saber: 1) divisão dos nomes pela primeira parte, última parte e iniciais do nome do meio; 2) divisão do nome em cinco partes; (3) segmentação segundo o HMM. A aplicação do modelo HMM como mecanismo de segmentação obteve boa concordância quando comparado com o observador humano. As diferentes estratégias de segmentação geraram resultados bastante similares na vinculação de registros, tendo a estratégia 1 obtido um desempenho pouco melhor que as demais. Este estudo sugere que a segmentação de nomes brasileiros por meio do modelo escondido de Markov não é mais eficaz do que métodos tradicionais de segmentação.
Resumo:
No campo da educação permanente na área da saúde, podem ser citadas diferentes iniciativas que visam formar profissionais com o uso das Tecnologias de Informação e Comunicação (TICs). No entanto, pouco se sabe ainda sobre o uso da web por profissionais da saúde como estratégia da aprendizagem formal, menos ainda quando se aborda a aprendizagem informal. Percebe-se que as ações no campo da educação com uso e, sobretudo, para o uso da tecnologia como ferramenta de aprendizagem ainda são feitas de forma muito intuitivas, por acerto e erro, tendo em vista a própria evolução da tecnologia em um curto período temporal. Sendo assim, o objetivo geral da pesquisa é compreender o perfil, as percepções e representações sociais sobre aprendizagem na web de médicos, enfermeiros e cirurgiões-dentistas e uma possível influência desse uso no cotidiano profissional. Para atingir o objetivo delimitado, foi empregada a metodologia quali-quantitativa através da utilização de um questionário on-line, contendo questões fechadas e questões abertas, respondido por 277 alunos do Curso de Especialização em Saúde da Família oferecido pelo núcleo da Universidade do Estado do Rio de Janeiro (UERJ) da Universidade Aberta do Sistema Único de Saúde (UNA-SUS). Para análise das questões fechadas, foi utilizada a estatística descritiva e testes bivariados não paramétricos. A análise das questões abertas foi feita à luz da teoria da representações sociais com emprego da técnica da análise do conteúdo e das evocações livres. Os resultados da pesquisa foram apresentados em formato de três trabalhos para apresentação em eventos e quatro artigos submetidos para publicação em revistas de alta qualidade acadêmica. Com base nos resultados, destaca-se como preocupação que o simples consumo de informações esteja justificando e a ele esteja restrito o uso da internet para os sujeitos, em detrimento às possibilidades educacionais da cibercultura. Acredita-se ser necessário o desenvolvimento de ações que subsidiem uma prática mais reflexiva a fim de reverter um possível uso reduzido das potencialidades da TICs.
Resumo:
Introdução; Conhecendo o AINFO; Gerenciador de Dados e outros procedimentos especiais; Administrando o AINFO; Atualizando as bases de dados; Sobre as bases de dados; Imprimindo relatórios; Sobre o SIR - Recuperação de Informação; Descrição dos campos; Descrição dos relatórios; Anexos.
Resumo:
O objetivo do trabalho é relatar a experiência na migração do sistema de automação das bibliotecas da Embrapa - AINFO, em Paradox para o interbase, versào gratuita com código aberto, disponibilizado pela Borland Software Corporation em setembro de 2000. O método utilizado foi o de estudar a viabilidade, performance e aplicação de componentes de acesso nativo Interbase Ex´press (IBX) e Interbase Objects (IBO) que dispensam a Borland Database Engine (BDE) para conexão do sistema ao banco de dados.
Resumo:
Conhecendo o AINFO 2001. Gerenciador de dados AINFO 2001. Operando o AINFO 2001. Atualizando as bases de dados. Sobre as bases de dados. Gerando e imprimindo relatórios. Sobre o SIR - Recuperação da Informação. Descrição dos campos. Descrição dos campos. Descrição dos relatórios.
Resumo:
O AINFO é um sistema para automação de bibliotecas e recuperação de informação, desenvolvimento em padrão Windows, com arquitetura cliente/servidor baseada no sistema gerenciador de banco de dados relacional Firebird. Pemite o gerenciamento de informação técnico-científica, integrando bases de dados documentais, cadastrais e processos bibliográficos através do armazenamento, atualização, indexação e recuperação de informação de forma simples e rápida, utilizando não apenas recursos de um istema gerenciador de banco de dados, como controle de concorrência e manutenção de integridade das bases de dados, mas também oferecendo facilidades de recuperação de informação textual não disponíveis nesses sistemas.
Resumo:
A ferramenta TaxTools foi desenvolvida pelo Laboratório de Inteligência Computacional (Labic) do Instituto de Ciência Matemática e de Computação (ICMC) da Universidade de São Paulo (USP), campus de São Carlos, SP, com o objetivo de auxiliar no processo de mineração de textos. Atualmente, ela tem sido mantida e evoluída pelo Laboratório de Inteligência Computacional (LabIC) da Embrapa Informática Agropecuária. Esse tutorial abrange apenas as opções disponíveis na TaxTools, que completam o processo de obtenção de uma taxonomia de tópicos (MOURA et al., 2008); como clusterização, cálculos de medidas intercluster e de joinability, métodos de podas, métodos de visualização de resultados e algumas opções auxiliares.
Resumo:
The electronic storage of medical patient data is becoming a daily experience in most of the practices and hospitals worldwide. However, much of the data available is in free-form text, a convenient way of expressing concepts and events, but especially challenging if one wants to perform automatic searches, summarization or statistical analysis. Information Extraction can relieve some of these problems by offering a semantically informed interpretation and abstraction of the texts. MedInX, the Medical Information eXtraction system presented in this document, is the first information extraction system developed to process textual clinical discharge records written in Portuguese. The main goal of the system is to improve access to the information locked up in unstructured text, and, consequently, the efficiency of the health care process, by allowing faster and reliable access to quality information on health, for both patient and health professionals. MedInX components are based on Natural Language Processing principles, and provide several mechanisms to read, process and utilize external resources, such as terminologies and ontologies, in the process of automatic mapping of free text reports onto a structured representation. However, the flexible and scalable architecture of the system, also allowed its application to the task of Named Entity Recognition on a shared evaluation contest focused on Portuguese general domain free-form texts. The evaluation of the system on a set of authentic hospital discharge letters indicates that the system performs with 95% F-measure, on the task of entity recognition, and 95% precision on the task of relation extraction. Example applications, demonstrating the use of MedInX capabilities in real applications in the hospital setting, are also presented in this document. These applications were designed to answer common clinical problems related with the automatic coding of diagnoses and other health-related conditions described in the documents, according to the international classification systems ICD-9-CM and ICF. The automatic review of the content and completeness of the documents is an example of another developed application, denominated MedInX Clinical Audit system.
Resumo:
A informação digitalizada e nado digital, fruto do avanço tecnológico proporcionado pelas Tecnologias da Informação e Comunicação (TIC), bem como da filosofia participativa da Web 2.0, conduziu à necessidade de reflexão sobre a capacidade de os modelos atuais, para a organização e representação da informação, de responder às necessidades info-comunicacionais assim como o acesso à informação eletrónica pelos utilizadores em Instituições de Memória. O presente trabalho de investigação tem como objetivo a conceção e avaliação de um modelo genérico normativo e harmonizador para a organização e representação da informação eletrónica, num sistema de informação para o uso de utilizadores e profissionais da informação, no contexto atual colaborativo e participativo. A definição dos objetivos propostos teve por base o estudo e análise qualitativa das normas adotadas pelas instituições de memória, para os registos de autoridade, bibliográfico e formatos de representação. Após a concetualização, foi desenvolvido e avaliado o protótipo, essencialmente, pela análise qualitativa dos dados obtidos a partir de testes à recuperação da informação. A experiência decorreu num ambiente laboratorial onde foram realizados testes, entrevistas e inquéritos por questionário. A análise cruzada dos resultados, obtida pela triangulação dos dados recolhidos através das várias fontes, permitiu concluir que tanto os utilizadores como os profissionais da informação consideraram muito interessante a integração da harmonização normativa refletida nos vários módulos, a integração de serviços/ferramentas comunicacionais e a utilização da componente participativa/colaborativa da plataforma privilegiando a Wiki, seguida dos Comentários, Tags, Forum de discussão e E-mail.
Resumo:
For the actual existence of e-government it is necessary and crucial to provide public information and documentation, making its access simple to citizens. A portion, not necessarily small, of these documents is in an unstructured form and in natural language, and consequently outside of which the current search systems are generally able to cope and effectively handle. Thus, in thesis, it is possible to improve access to these contents using systems that process natural language and create structured information, particularly if supported in semantics. In order to put this thesis to test, this work was developed in three major phases: (1) design of a conceptual model integrating the creation of structured information and making it available to various actors, in line with the vision of e-government 2.0; (2) definition and development of a prototype instantiating the key modules of this conceptual model, including ontology based information extraction supported by examples of relevant information, knowledge management and access based on natural language; (3) assessment of the usability and acceptability of querying information as made possible by the prototype - and in consequence of the conceptual model - by users in a realistic scenario, that included comparison with existing forms of access. In addition to this evaluation, at another level more related to technology assessment and not to the model, evaluations were made on the performance of the subsystem responsible for information extraction. The evaluation results show that the proposed model was perceived as more effective and useful than the alternatives. Associated with the performance of the prototype to extract information from documents, comparable to the state of the art, results demonstrate the feasibility and advantages, with current technology, of using natural language processing and integration of semantic information to improve access to unstructured contents in natural language. The conceptual model and the prototype demonstrator intend to contribute to the future existence of more sophisticated search systems that are also more suitable for e-government. To have transparency in governance, active citizenship, greater agility in the interaction with the public administration, among others, it is necessary that citizens and businesses have quick and easy access to official information, even if it was originally created in natural language.
Resumo:
The rapid evolution and proliferation of a world-wide computerized network, the Internet, resulted in an overwhelming and constantly growing amount of publicly available data and information, a fact that was also verified in biomedicine. However, the lack of structure of textual data inhibits its direct processing by computational solutions. Information extraction is the task of text mining that intends to automatically collect information from unstructured text data sources. The goal of the work described in this thesis was to build innovative solutions for biomedical information extraction from scientific literature, through the development of simple software artifacts for developers and biocurators, delivering more accurate, usable and faster results. We started by tackling named entity recognition - a crucial initial task - with the development of Gimli, a machine-learning-based solution that follows an incremental approach to optimize extracted linguistic characteristics for each concept type. Afterwards, Totum was built to harmonize concept names provided by heterogeneous systems, delivering a robust solution with improved performance results. Such approach takes advantage of heterogenous corpora to deliver cross-corpus harmonization that is not constrained to specific characteristics. Since previous solutions do not provide links to knowledge bases, Neji was built to streamline the development of complex and custom solutions for biomedical concept name recognition and normalization. This was achieved through a modular and flexible framework focused on speed and performance, integrating a large amount of processing modules optimized for the biomedical domain. To offer on-demand heterogenous biomedical concept identification, we developed BeCAS, a web application, service and widget. We also tackled relation mining by developing TrigNER, a machine-learning-based solution for biomedical event trigger recognition, which applies an automatic algorithm to obtain the best linguistic features and model parameters for each event type. Finally, in order to assist biocurators, Egas was developed to support rapid, interactive and real-time collaborative curation of biomedical documents, through manual and automatic in-line annotation of concepts and relations. Overall, the research work presented in this thesis contributed to a more accurate update of current biomedical knowledge bases, towards improved hypothesis generation and knowledge discovery.
Resumo:
Tese de doutoramento, Informática (Engenharia Informática), Universidade de Lisboa, Faculdade de Ciências, 2015