884 resultados para Procedimentos clínicos
Resumo:
Vivimos en una época en la que cada vez existe una mayor cantidad de información. En el dominio de la salud la historia clínica digital ha permitido digitalizar toda la información de los pacientes. Estas historias clínicas digitales contienen una gran cantidad de información valiosa escrita en forma narrativa que sólo podremos extraer recurriendo a técnicas de procesado de lenguaje natural. No obstante, si se quiere realizar búsquedas sobre estos textos es importante analizar que la información relativa a síntomas, enfermedades, tratamientos etc. se puede refererir al propio paciente o a sus antecentes familiares, y que ciertos términos pueden aparecer negados o ser hipotéticos. A pesar de que el español ocupa la segunda posición en el listado de idiomas más hablados con más de 500 millones de hispano hablantes, hasta donde tenemos de detección de la negación, probabilidad e histórico en textos clínicos en español. Por tanto, este Trabajo Fin de Grado presenta una implementación basada en el algoritmo ConText para la detección de la negación, probabilidad e histórico en textos clínicos escritos en español. El algoritmo se ha validado con 454 oraciones que incluían un total de 1897 disparadores obteniendo unos resultado de 83.5 %, 96.1 %, 96.9 %, 99.7% y 93.4% de exactitud con condiciones afirmados, negados, probable, probable negado e histórico respectivamente. ---ABSTRACT---We live in an era in which there is a huge amount of information. In the domain of health, the electronic health record has allowed to digitize all the information of the patients. These electronic health records contain valuable information written in narrative form that can only be extracted using techniques of natural language processing. However, if you want to search on these texts is important to analyze if the relative information about symptoms, diseases, treatments, etc. are referred to the patient or family casework, and that certain terms may appear negated or be hypothesis. Although Spanish is the second spoken language with more than 500 million speakers, there seems to be no method of detection of negation, hypothesis or historical in medical texts written in Spanish. Thus, this bachelor’s final degree presents an implementation based on the ConText algorithm for the detection of negation, hypothesis and historical in medical texts written in Spanish. The algorithm has been validated with 454 sentences that included a total of 1897 triggers getting a result of 83.5 %, 96.1 %, 96.9 %, 99.7% and 93.4% accuracy with affirmed, negated, hypothesis, negated hypothesis and historical respectively.
Resumo:
Actualmente nos encontramos en la era de Internet y las nuevas tecnologías. Esto supone que queremos utilizar Internet para casi cualquier problema que se nos presente hoy en día. Al mismo tiempo vivimos un momento en el que los ensayos clínicos están siendo cruciales para la cura de enfermedades, algo que supone si no el más sí uno de los aspectos más importantes en nuestra vida. Pero el seguimiento de los ensayos clínicos presenta el problema de que finalizados tras cinco años de duración, toda comunicación con los pacientes que participaron en ellos se pierde y volver a contactar con ellos se convierte en una tarea ardua. De estas ideas básicas surge el desarrollo de este proyecto. Se ha querido unir las nuevas tecnologías y el beneficioso uso de Internet con la posibilidad de encontrar a pacientes sin tener que perder demasiado tiempo en ello y sin molestar a nadie por el camino. La aplicación que se plantea en este proyecto es, por tanto, una aplicación web basada en PHP, HTML5 y CSS3 que sea capaz de leer información personal de pacientes almacenada en CRFs y que con ella realice búsquedas en redes sociales destinadas a la medicina y así, de esta manera, poder constatar qué ha sido del paciente. Para ello primero se tendrá que realizar un exhaustivo estudio de las redes sociales y repositorios electrónicos clínicos que hay actualmente en el mercado. Una vez identificados estos recursos y sus posibles elementos de desarrollo se estudiarán las herramientas de manejo de Case Report Forms disponibles, que sean de código abierto, para poder usarlas como punto de lectura de los datos del paciente. Una vez disponible esta información sólo será necesario hacer que la aplicación lea los datos y realice las búsquedas en las redes sociales seleccionadas. En definitiva, se ha diseñado un sistema que facilite el seguimiento de pacientes de estudios clínicos al equipo médico.
Resumo:
El trabajo se enmarca dentro de los proyecto INTEGRATE y EURECA, cuyo objetivo es el desarrollo de una capa de interoperabilidad semántica que permita la integración de datos e investigación clínica, proporcionando una plataforma común que pueda ser integrada en diferentes instituciones clínicas y que facilite el intercambio de información entre las mismas. De esta manera se promueve la mejora de la práctica clínica a través de la cooperación entre instituciones de investigación con objetivos comunes. En los proyectos se hace uso de estándares y vocabularios clínicos ya existentes, como pueden ser HL7 o SNOMED, adaptándolos a las necesidades particulares de los datos con los que se trabaja en INTEGRATE y EURECA. Los datos clínicos se representan de manera que cada concepto utilizado sea único, evitando ambigüedades y apoyando la idea de plataforma común. El alumno ha formado parte de un equipo de trabajo perteneciente al Grupo de Informática de la UPM, que a su vez trabaja como uno de los socios de los proyectos europeos nombrados anteriormente. La herramienta desarrollada, tiene como objetivo realizar tareas de homogenización de la información almacenada en las bases de datos de los proyectos haciendo uso de los mecanismos de normalización proporcionados por el vocabulario médico SNOMED-CT. Las bases de datos normalizadas serán las utilizadas para llevar a cabo consultas por medio de servicios proporcionados en la capa de interoperabilidad, ya que contendrán información más precisa y completa que las bases de datos sin normalizar. El trabajo ha sido realizado entre el día 12 de Septiembre del año 2014, donde comienza la etapa de formación y recopilación de información, y el día 5 de Enero del año 2015, en el cuál se termina la redacción de la memoria. El ciclo de vida utilizado ha sido el de desarrollo en cascada, en el que las tareas no comienzan hasta que la etapa inmediatamente anterior haya sido finalizada y validada. Sin embargo, no todas las tareas han seguido este modelo, ya que la realización de la memoria del trabajo se ha llevado a cabo de manera paralela con el resto de tareas. El número total de horas dedicadas al Trabajo de Fin de Grado es 324. Las tareas realizadas y el tiempo de dedicación de cada una de ellas se detallan a continuación: Formación. Etapa de recopilación de información necesaria para implementar la herramienta y estudio de la misma [30 horas. Especificación de requisitos. Se documentan los diferentes requisitos que ha de cumplir la herramienta [20 horas]. Diseño. En esta etapa se toman las decisiones de diseño de la herramienta [35 horas]. Implementación. Desarrollo del código de la herramienta [80 horas]. Pruebas. Etapa de validación de la herramienta, tanto de manera independiente como integrada en los proyectos INTEGRATE y EURECA [70 horas]. Depuración. Corrección de errores e introducción de mejoras de la herramienta [45 horas]. Realización de la memoria. Redacción de la memoria final del trabajo [44 horas].---ABSTRACT---This project belongs to the semantic interoperability layer developed in the European projects INTEGRATE and EURECA, which aims to provide a platform to promote interchange of medical information from clinical trials to clinical institutions. Thus, research institutions may cooperate to enhance clinical practice. Different health standards and clinical terminologies has been used in both INTEGRATE and EURECA projects, e.g. HL7 or SNOMED-CT. These tools have been adapted to the projects data requirements. Clinical data are represented by unique concepts, avoiding ambiguity problems. The student has been working in the Biomedical Informatics Group from UPM, partner of the INTEGRATE and EURECA projects. The tool developed aims to perform homogenization tasks over information stored in databases of the project, through normalized representation provided by the SNOMED-CT terminology. The data query is executed against the normalized version of the databases, since the information retrieved will be more informative than non-normalized databases. The project has been performed from September 12th of 2014, when initiation stage began, to January 5th of 2015, when the final report was finished. The waterfall model for software development was followed during the working process. Therefore, a phase may not start before the previous one finishes and has been validated, except from the final report redaction, which has been carried out in parallel with the others phases. The tasks that have been developed and time for each one are detailed as follows: Training. Gathering the necessary information to develop the tool [30 hours]. Software requirement specification. Requirements the tool must accomplish [20 hours]. Design. Decisions on the design of the tool [35 hours]. Implementation. Tool development [80 hours]. Testing. Tool evaluation within the framework of the INTEGRATE and EURECA projects [70 hours]. Debugging. Improve efficiency and correct errors [45 hours]. Documenting. Final report elaboration [44 hours].
Resumo:
La nanotecnología es el estudio que la mayoría de veces es tomada como una meta tecnológica que nos ayuda en el área de investigación para tratar con la manipulación y el control en forma precisa de la materia con dimensiones comprendidas entre 1 y 100 nanómetros. Recordando que el prefijo nano proviene del griego vavoc que significa enano y corresponde a un factor de 10^-9, que aplicada a las unidades de longitud corresponde a una mil millonésima parte de un metro. Ahora sabemos que esta ciencia permite trabajar con estructuras moleculares y sus átomos, obteniendo materiales que exhiben fenómenos físicos, químicos y biológicos, muy distintos a los que manifiestan los materiales usados con una longitud mayor. Por ejemplo en medicina, los compuestos manométricos y los materiales nano estructurados muchas veces ofrecen una mayor eficacia con respecto a las formulaciones químicas tradicionales, ya que muchas veces llegan a combinar los antiguos compuestos con estos nuevos para crear nuevas terapias e inclusive han llegado a reemplazarlos, revelando así nuevas propiedades diagnósticas y terapéuticas. A su vez, la complejidad de la información a nivel nano es mucho mayor que en los niveles biológicos convencionales y, por tanto, cualquier flujo de trabajo en nano medicina requiere, de forma inherente, estrategias de gestión de información avanzadas. Muchos investigadores en la nanotecnología están buscando la manera de obtener información acerca de estos materiales nanométricos, para mejorar sus estudios que muchas veces lleva a probar estos métodos o crear nuevos compuestos para ayudar a la medicina actual, contra las enfermedades más poderosas como el cáncer. Pero en estos días es muy difícil encontrar una herramienta que les brinde la información específica que buscan en los miles de ensayos clínicos que se suben diariamente en la web. Actualmente, la informática biomédica trata de proporcionar el marco de trabajo que permita lidiar con estos retos de la información a nivel nano, en este contexto, la nueva área de la nano informática pretende detectar y establecer los vínculos existentes entre la medicina, la nanotecnología y la informática, fomentando así la aplicación de métodos computacionales para resolver las cuestiones y problemas que surgen con la información en la amplia intersección entre la biomedicina y la nanotecnología. Otro caso en la actualidad es que muchos investigadores de biomedicina desean saber y comparar la información dentro de los ensayos clínicos que contiene temas de nanotecnología en las diferentes paginas en la web por todo el mundo, obteniendo en si ensayos clínicos que se han creado en Norte América, y ensayos clínicos que se han creado en Europa, y saber si en este tiempo este campo realmente está siendo explotado en los dos continentes. El problema es que no se ha creado una herramienta que estime un valor aproximado para saber los porcentajes del total de ensayos clínicos que se han creado en estas páginas web. En esta tesis de fin de máster, el autor utiliza un mejorado pre-procesamiento de texto y un algoritmo que fue determinado como el mejor procesamiento de texto en una tesis doctoral, que incluyo algunas pruebas con muchos de estos para obtener una estimación cercana que ayudaba a diferenciar cuando un ensayo clínico contiene información sobre nanotecnología y cuando no. En otras palabras aplicar un análisis de la literatura científica y de los registros de ensayos clínicos disponibles en los dos continentes para extraer información relevante sobre experimentos y resultados en nano medicina (patrones textuales, vocabulario en común, descriptores de experimentos, parámetros de caracterización, etc.), seguido el mecanismo de procesamiento para estructurar y analizar dicha información automáticamente. Este análisis concluye con la estimación antes mencionada necesaria para comparar la cantidad de estudios sobre nanotecnología en estos dos continentes. Obviamente usamos un modelo de datos de referencia (gold standard) —un conjunto de datos de entrenamiento anotados manualmente—, y el conjunto de datos para el test es toda la base de datos de estos registros de ensayos clínicos, permitiendo distinguir automáticamente los estudios centrados en nano drogas, nano dispositivos y nano métodos de aquellos enfocados a testear productos farmacéuticos tradicionales.---ABSTRACT---Nanotechnology is the scientific study that usually is seen as a technological goal that helps us in the investigation field to deal with the manipulation and precise control of the matter with dimensions that range from 1 to 100 nanometers. Remembering that the prefix nano comes from the Greek word νᾶνος, meaning dwarf and denotes a factor of 10^-9, that applyied the longitude units is equal to a billionth of a meter. Now we know that this science allows us to work with molecular structures and their atoms, obtaining material that exhibit physical, chemical and biological phenomena very different to those manifesting in materials with a bigger longitude. As an example in medicine, the nanometric compounds and the materials in nano structures are often offered with more effectiveness regarding to the traditional chemical formulas. This is due to the fact that many occasions combining these old compounds with the new ones, creates new therapies and even replaced them, reveling new diagnostic and therapeutic properties. Even though the complexity of the information at nano level is greater than that in conventional biologic level and, thus, any work flow in nano medicine requires, in an inherent way, advance information management strategies. Many researchers in nanotechnology are looking for a way to obtain information about these nanometric materials to improve their studies that leads in many occasions to prove these methods or to create a new compound that helps modern medicine against powerful diseases, such as cancer. But in these days it is difficult to find a tool that searches and provides a specific information in the thousands of clinic essays that are uploaded daily on the web. Currently, the bio medic informatics tries to provide the work frame that will allow to deal with these information challenge in nano level. In this context, the new area of nano informatics pretends to detect and establish the existing links between medicine, nanotechnology and informatics, encouraging the usage of computational methods to resolve questions and problems that surge with the wide information intersection that is between biomedicine and nanotechnology. Another present case, is that many biomedicine researchers want to know and be able to compare the information inside those clinic essays that contains subjects of nanotechnology on the different webpages across the world, obtaining the clinic essays that has been done in North America and the essays done in Europe, and thus knowing if in this time, this field is really being exploited in both continents. In this master thesis, the author will use an enhanced text pre-processor with an algorithm that was defined as the best text processor in a doctoral thesis, that included many of these tests to obtain a close estimation that helps to differentiate when a clinic essay contains information about nanotechnology and when it does not. In other words, applying an analysis to the scientific literature and clinic essay available in both continents, in order to extract relevant information about experiments and the results in nano-medicine (textual patterns, common vocabulary, experiments descriptors, characterization parameters, etc.), followed by the mechanism process to structure and analyze said information automatically. This analysis concludes with the estimation, mentioned before, needed to compare the quantity of studies about nanotechnology in these two continents. Obviously we use a data reference model (Gold standard) – a set of training data manually annotated –, and the set of data for the test conforms the entire database of these clinic essay registers, allowing to distinguish automatically the studies centered on nano drugs, nano devices and nano methods of those focus on testing traditional pharmaceutical products.
Resumo:
Parte de la investigación biomédica actual se encuentra centrada en el análisis de datos heterogéneos. Estos datos pueden tener distinto origen, estructura, y semántica. Gran cantidad de datos de interés para los investigadores se encuentran en bases de datos públicas, que recogen información de distintas fuentes y la ponen a disposición de la comunidad de forma gratuita. Para homogeneizar estas fuentes de datos públicas con otras de origen privado, existen diversas herramientas y técnicas que permiten automatizar los procesos de homogeneización de datos heterogéneos. El Grupo de Informática Biomédica (GIB) [1] de la Universidad Politécnica de Madrid colabora en el proyecto europeo P-medicine [2], cuya finalidad reside en el desarrollo de una infraestructura que facilite la evolución de los procedimientos médicos actuales hacia la medicina personalizada. Una de las tareas enmarcadas en el proyecto P-medicine que tiene asignado el grupo consiste en elaborar herramientas que ayuden a usuarios en el proceso de integración de datos contenidos en fuentes de información heterogéneas. Algunas de estas fuentes de información son bases de datos públicas de ámbito biomédico contenidas en la plataforma NCBI [3] (National Center for Biotechnology Information). Una de las herramientas que el grupo desarrolla para integrar fuentes de datos es Ontology Annotator. En una de sus fases, la labor del usuario consiste en recuperar información de una base de datos pública y seleccionar de forma manual los resultados relevantes. Para automatizar el proceso de búsqueda y selección de resultados relevantes, por un lado existe un gran interés en conseguir generar consultas que guíen hacia resultados lo más precisos y exactos como sea posible, por otro lado, existe un gran interés en extraer información relevante de elevadas cantidades de documentos, lo cual requiere de sistemas que analicen y ponderen los datos que caracterizan a los mismos. En el campo informático de la inteligencia artificial, dentro de la rama de la recuperación de la información, existen diversos estudios acerca de la expansión de consultas a partir de retroalimentación relevante que podrían ser de gran utilidad para dar solución a la cuestión. Estos estudios se centran en técnicas para reformular o expandir la consulta inicial utilizando como realimentación los resultados que en una primera instancia fueron relevantes para el usuario, de forma que el nuevo conjunto de resultados tenga mayor proximidad con los que el usuario realmente desea. El objetivo de este trabajo de fin de grado consiste en el estudio, implementación y experimentación de métodos que automaticen el proceso de extracción de información trascendente de documentos, utilizándola para expandir o reformular consultas. De esta forma se pretende mejorar la precisión y el ranking de los resultados asociados. Dichos métodos serán integrados en la herramienta Ontology Annotator y enfocados a la fuente de datos de PubMed [4].---ABSTRACT---Part of the current biomedical research is focused on the analysis of heterogeneous data. These data may have different origin, structure and semantics. A big quantity of interesting data is contained in public databases which gather information from different sources and make it open and free to be used by the community. In order to homogenize thise sources of public data with others which origin is private, there are some tools and techniques that allow automating the processes of integration heterogeneous data. The biomedical informatics group of the Universidad Politécnica de Madrid cooperates with the European project P-medicine which main purpose is to create an infrastructure and models to facilitate the transition from current medical practice to personalized medicine. One of the tasks of the project that the group is in charge of consists on the development of tools that will help users in the process of integrating data from diverse sources. Some of the sources are biomedical public data bases from the NCBI platform (National Center for Biotechnology Information). One of the tools in which the group is currently working on for the integration of data sources is called the Ontology Annotator. In this tool there is a phase in which the user has to retrieve information from a public data base and select the relevant data contained in it manually. For automating the process of searching and selecting data on the one hand, there is an interest in automatically generating queries that guide towards the more precise results as possible. On the other hand, there is an interest on retrieve relevant information from large quantities of documents. The solution requires systems that analyze and weigh the data allowing the localization of the relevant items. In the computer science field of the artificial intelligence, in the branch of information retrieval there are diverse studies about the query expansion from relevance feedback that could be used to solve the problem. The main purpose of this studies is to obtain a set of results that is the closer as possible to the information that the user really wants to retrieve. In order to reach this purpose different techniques are used to reformulate or expand the initial query using a feedback the results that where relevant for the user, with this method, the new set of results will have more proximity with the ones that the user really desires. The goal of this final dissertation project consists on the study, implementation and experimentation of methods that automate the process of extraction of relevant information from documents using this information to expand queries. This way, the precision and the ranking of the results associated will be improved. These methods will be integrated in the Ontology Annotator tool and will focus on the PubMed data source.
Resumo:
En los últimos años han surgido nuevos campos de las tecnologías de la información que exploran el tratamiento de la gran cantidad de datos digitales existentes y cómo transformarlos en conocimiento explícito. Las técnicas de Procesamiento del Lenguaje Natural (NLP) son capaces de extraer información de los textos digitales presentados en forma narrativa. Además, las técnicas de machine learning clasifican instancias o ejemplos en función de sus atributos, en distintas categorías, aprendiendo de otros previamente clasificados. Los textos clínicos son una gran fuente de información no estructurada; en consecuencia, información no explotada en su totalidad. Algunos términos usados en textos clínicos se encuentran en una situación de afirmación, negación, hipótesis o histórica. La detección de esta situación es necesaria para la estructuración de información, pero a su vez tiene una gran complejidad. Extrayendo características lingüísticas de los elementos, o tokens, de los textos mediante NLP; transformando estos tokens en instancias y las características en atributos, podemos mediante técnicas de machine learning clasificarlos con el objetivo de detectar si se encuentran afirmados, negados, hipotéticos o históricos. La selección de los atributos que cada token debe tener para su clasificación, así como la selección del algoritmo de machine learning utilizado son elementos cruciales para la clasificación. Son, de hecho, los elementos que componen el modelo de clasificación. Consecuentemente, este trabajo aborda el proceso de extracción de características, selección de atributos y selección del algoritmo de machine learning para la detección de la negación en textos clínicos en español. Se expone un modelo para la clasificación que, mediante el algoritmo J48 y 35 atributos obtenidos de características lingüísticas (morfológicas y sintácticas) y disparadores de negación, detecta si un token está negado en 465 frases provenientes de textos clínicos con un F-Score del 73%, una exhaustividad del 66% y una precisión del 81% con una validación cruzada de 10 iteraciones. ---ABSTRACT--- New information technologies have emerged in the recent years which explore the processing of the huge amount of existing digital data and its transformation into knowledge. Natural Language Processing (NLP) techniques are able to extract certain features from digital texts. Additionally, through machine learning techniques it is feasible to classify instances according to different categories, learning from others previously classified. Clinical texts contain great amount of unstructured data, therefore information not fully exploited. Some terms (tokens) in clinical texts appear in different situations such as affirmed, negated, hypothetic or historic. Detecting this situation is necessary for the structuring of this data, however not simple. It is possible to detect whether if a token is negated, affirmed, hypothetic or historic by extracting its linguistic features by NLP; transforming these tokens into instances, the features into attributes, and classifying these instances through machine learning techniques. Selecting the attributes each instance must have, and choosing the machine learning algorithm are crucial issues for the classification. In fact, these elements set the classification model. Consequently, this work approaches the features retrieval as well as the attributes and algorithm selection process used by machine learning techniques for the detection of negation in clinical texts in Spanish. We present a classification model which, through J48 algorithm and 35 attributes from linguistic features (morphologic and syntactic) and negation triggers, detects whether if a token is negated in 465 sentences from historical records, with a result of 73% FScore, 66% recall and 81% precision using a 10-fold cross-validation.
Resumo:
Inclui notas explicativas e bibliográficas.
Resumo:
Número dedicado ao Novo Código de Processo Civil.
Resumo:
Inclui bibliografia
Resumo:
Introdução O nível de atividade física (NAF) insuficiente e estado nutricional (EN) inadequado conferem risco de desenvolvimento de hipertensão arterial e diabete, bem como dificultam o controle destas doenças. Assim, infere-se que os custos despendidos pelo SUS com medicamentos, internações e consultas de hipertensos e diabéticos apresentem relação inversa com NAF, incluindo a prática de caminhada e EN. Entretanto, estudos epidemiológicos que descrevam estes custos e analisem essas associações na população idosa são inexistentes no Brasil, o que dificulta a fundamentação para a implementação de políticas publicas para a economia de recursos. Objetivo Descrever os custos com procedimentos de saúde de idosos hipertensos e diabéticos e verificar qual a sua associação com NAF e EN, segundo sexo e grupos etários. Métodos A amostra foi constituída por 806 idosos com autorreferência à hipertensão e/ou diabete ( 60 anos) residentes no município de São PauloSP, participantes das três coortes do Estudo Saúde, Bem-estar e Envelhecimento SABE - em 2010. A variável dependente custo total anual (em Reais), foi estimada com base nos dados autorreferidos sobre uso de medicamentos, uso dos serviços ambulatoriais e internações hospitalares, retroativos a um ano da coleta de dados. A variáveis explanatórias: i) NAF foi estimada a partir de entrevista utilizando o International Physical Activity Questionnaire (IPAQ, versão curta), classificando os idosos segundo duração da realização de atividades físicas moderada, em ativos ( 150 minutos/semana) e insuficientemente ativos (< 150 minutos/semana); ii) Prática de caminhada, categorizada segundo frequência semanal: a) 4 dias/ semana; b) 1 a 3 dias/semana; c) não caminha. iii) EN, identificado pelo índice de massa corporal (IMC), classificando os idosos em dois grupos: a) IMC < 28 kg/ m²; b) IMC 28 kg/ m² (excesso de peso); as variáveis de controle foram o sexo, grupos etários (a. 70 anos; b. 65 a 69 anos; c. 60 a 64 anos); estado civil (a. casado; b. outros) e, escolaridade (a. sem escolaridade; b. 1 ano). A descrição dos custos segundo as NAF e EN foi representada pelos valores de média e IC95 por cento , mediana e P25 P75, valores mínimos e máximos. Modelos de regressão logística múltipla foram empregados para analisar as associações entre variáveis dependentes e explanatórias. O nível de significância foi estabelecido em 5 por cento e todas as análises foram realizadas considerando amostras complexas, por meio do software Stata, 13.0. 9 Resultados: A média de custo total anual por pessoa foi de R$ 732,54 e a soma dos custos relativa a 12 meses para os 806 idosos foi de R$ 609.587,20, sempre superiores para idosos em excesso de peso, com NAF insuficiente e para idosos que não caminham. Idosos em excesso de peso apresentaram chance 50 por cento superior de estarem no grupo de maior custo total anual (OR 1.49, IC95 por cento 1.01 2.18) e mais de 70 por cento superior de maior custo com medicamentos (OR 1.71, IC95 por cento 1.18 2.47). A ausência de caminhada significou a chance superior para maiores custos anuais com medicamentos (OR 1.63, IC95 por cento 1.06 2.51) e custos totais (OR 1.82, IC95 por cento 1.17 2.81). Todas as análises ajustadas por sexo e idade. O NAF não se associou aos custos totais e custo com medicamentos (p>0.05). Conclusão: Os custos para o controle de HAS e DM em idosos são altos e se associam inversamente à prática de caminhada e ao estado nutricional, especialmente em relação ao custo com o uso de medicamentos antihipertensivos e hipoglicemiantes.
Resumo:
Este estudo teve como objetivos (a) identificar mecanismos pelos quais rearranjos cromossômicos citogeneticamente equilibrados possam estar associados de maneira causal a determinados quadros clínicos e (b) contribuir para a compreensão dos mecanismos de formação desses rearranjos. Para isso, foram estudados 45 rearranjos cromossômicos citogeneticamente equilibrados (29 translocações, 10 inversões e seis rearranjos complexos), detectados em pacientes que apresentavam malformações congênitas, comprometimento do desenvolvimento neuropsicomotor ou déficit intelectual. Foram 31 rearranjos cromossômicos esporádicos, três familiais que segregavam com o quadro clínico e mais 11 rearranjos cromossômicos herdados de genitores fenotipicamente normais. Inicialmente os pontos de quebra desses rearranjos foram mapeados por hibridação in situ fluorescente (FISH). A busca por microdeleções e duplicações genômicas foi realizada por a-CGH. A investigação dos pontos de quebra prosseguiu com a aplicação da técnica de Mate-Pair Sequencing (MPS), que permite localizar as quebras em segmentos de 100 pb - 1 kb, na maioria dos casos. Para obter os segmentos de junção das quebras no nível de pares de bases, os segmentos delimitados por MPS foram sequenciados pelo método de Sanger. A análise por aCGH revelou microdeleções ou microduplicações localizadas nos cromossomos rearranjados, em 12 dos 45 pacientes investigados (27%). A análise de 27 rearranjos por MPS permitiu a caracterização dos pontos de junção das quebras. MPS expandiu o número de pontos de quebra, detectados por análise do cariótipo ou aCGH, de 114 para 156 (em resolução < 2kb, na maioria dos casos). O número de pontos de quebra/rearranjo variou de 2 a 20. Os 156 pontos de quebra resultaram em 86 variantes estruturais equilibradas e outras 32 variantes não equilibradas. Perdas e ganhos de segmentos submiscroscópicos nos cromossomos rearranjados constituíram a principal causa ou, provavelmente, contribuíram para o quadro clínico de 12 dos 45 pacientes. Em cinco desses 12 rearranjos foram detectadas por MPS a interrupção de genes já relacionados à doença, ou provável alteração de sua região reguladora, contribundo para o quadro clínico. Em quatro dos 33 rearranjos não associados a perdas ou ganhos de segmentos, a análise por MPS revelou a interrupção de genes que já foram anteriormente relacionados a doenças, explicando-se, assim, as características clínicas dos portadores; outro rearranjo pode ter levando alteração da expressão gênica de gene sensível a dosagem e ao quadro clínico. Um rearranjo cromossômico familial, identificado na análise após bandamento G como uma translocação equilibrada, t(2;22)(p14;q12), segregava com quadro de atraso do desenvolvimento neuropsicomotor e dificuldade de aprendizado associados a dismorfismos. A combinação das análises por FISH, aCGH e MPS revelou que se tratava, na verdade, de rearranjo complexo entre os cromossomos 2, 5 e 22, incluindo 10 quebras. A segregação de diferentes desequilíbrios submicroscópicos em indivíduos afetados e clinicamente normais permitiu a compreensão da variabilidade clínica observada na família. Rearranjos equilibrados detectados em indivíduos afetados, mas herdados de genitores clinicamente normais, são, em geral, considerados como não tendo relação com o quadro clínico, apesar da possibilidade de desequilíbrios cromossômicos gerados por permuta desigual na meiose do genitor portador do rearranjo. Neste trabalho, a investigação de 11 desses rearranjos por aCGH não revelou perdas ou ganhos de segmentos nos cromossomos rearranjados. No entanto, a análise por aCGH da portadora de um desses rearranjos - inv(12)mat - revelou deleção de 8,7 Mb no cromossomo 8, como causa de seu fenótipo clínico. Essa deleção estava relacionada com outro rearranjo equilibrado também presente em sua mãe, independente da inversão. Para compreender os mecanismos de formação de rearranjos citogeneticamente equilibrados, investigamos os segmentos de junção no nível de pares de base. A análise por MPS que levou, na maioria dos casos, ao mapeamento dos pontos de quebras em segmentos <1kb permitiu o sequenciamento pelo método de Sanger de 51 segmentos de junções de 17 rearranjos. A ocorrência de blunt fusions ou inserções e deleções <10 pb, e a ausência de homologia ou a presença de micro homologia de 2 pb a 4 pb de extensão indicaram o mecanismo de junção de extremidades não homólogas (non-homologous end joinging; NHEJ), na maioria das 51 junções caracterizadas. As características de três dos quatro rearranjos mais complexos, com 17-20 quebras, indicaram sua formação pelo mecanismo de chromothripsis. Este estudo mostra a importância da análise genômica de variações de número de cópias por microarray, juntamente com o mapeamento dos pontos de quebra por MPS, para determinar a estrutura de rearranjos cromossômicos citogeneticamente equilibrados e seu impacto clínico. O mapeamento dos segmentos de junção por MPS, permitindo o sequenciamento pelo método de Sanger, foi essencial para a compreensão de mecanismos de formação desses rearranjos