999 resultados para Ensayos clínicos


Relevância:

60.00% 60.00%

Publicador:

Resumo:

The granulomatous lesions are frequently founded in infectious diseases and can involve the larynx and pharynx and can cause varying degrees of dysphonia and dysphagia. There is still no systematic review that analyzes effectiveness of speech therapy in systemic granulomatous diseases. Research strategy: A systematic review was performed according to Cochrane guideline considering the inclusion of RCTs and quasi-RCTs about the effectiveness of speech-language therapy to treat dysphagia and dysphonia symptoms in systemic granulomatous diseases of the larynx and pharynx. Selection criteria: The outcome planned to be measured in this review were: swallowing impairment, frequency of chest infections and voice and swallowing symptoms. Data analysis: We identified 1,140 citations from all electronic databases. After an initial shift we only selected 9 titles to be retrieved in full-text. After full reading, there was no RCT found in this review and therefore, we only described the existing 2 case series studies. Results: There were no randomized controlled trials found in the literature. Therefore, two studies were selected to be included only for narratively analysis as they were case series. Conclusion: There is no evidence from high quality studies about the effectiveness of speech-language therapy in patients with granulomatous diseases of the larynx and pharynx. The investigators could rely in the outcomes suggested in this review to design their own clinical trials.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

The purpose of this literature review was to evaluate the use of fibrin tissue adhesive in implant dentistry. Materials and Methods: A literature search of Medline-PubMed for articles published, describing the use of fibrin tissue adhesive in implant dentistry was performed and articles were critically reviewed. Results: The literature review reveals clinical trials and experimental studies with regard to the use of fibrin tissue adhesive in implant dentistry. This material consists of 2 components: highly purified, freeze-dried human fibrinogen with factor XIII and a starter solution containing human thrombin. Clotting factor XIII is admitted for reinforcement of the fibrin network. The components are reconstituted before use and when mixed form a clot by mimicking the terminal phase of the physiological clotting cascade. Several studies showed that fibrin tissue adhesive is fully absorbed by macrophages within 2 weeks of application. Adhesive fibrin tissue may be used for to prevent bone loss, to create contour in the periimplant soft tissue and osseous tissue, to sculpt emergence profile for prosthetic components and to mimic tissue architecture. In the last years fibrin tissue adhesive also find use as material for the controlled delivery of drugs and biologics. Conclusions: The fibrin tissue adhesive presents good properties such as biocompatibility, hemostatic properties and ability to break down like the physiologic clot. This material, alone or associated with other materials, can be used with the implants immediately after extraction. In this condition it brings the necessary anchoring and efficient maintenance of osseous/mucosal contour, which it is important for the clinical success.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Programa de doctorado: Avances en medicina interna.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Programa de doctorado interdepartamental Obtención, Preparación y Evaluación Biológica de Fármacos de origen Marino y Terrestre

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Programa de doctorado interdepartamental Obtención, Preparación y Evaluación Biológica de Fármacos de origen Marino y Terrestre

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Background Emergency contraception can prevent pregnancy when taken after unprotected intercourse.Obtaining emergency contraception within the recommended time frame is difficult for many women. Advance provision could circumvent some obstacles to timely use. Objectives To summarize randomized controlled trials evaluating advance provision of emergency contraception to explore effects on pregnancy rates, sexually transmitted infections, and sexual and contraceptive behaviors. Search strategy In November 2009, we searched CENTRAL, EMBASE, POPLINE,MEDLINE via PubMed, and a specialized emergency contraception article database. We also searched reference lists and contacted experts to identify additional published or unpublished trials. Selection criteria We included randomized controlled trials comparing advance provision and standard access (i.e., counseling whichmay ormay not have included information about emergency contraception, or provision of emergency contraception on request at a clinic or pharmacy). Data collection and analysis Two reviewers independently abstracted data and assessed study quality. We entered and analyzed data using RevMan 5.0.23. Main results Eleven randomized controlled trials met our criteria for inclusion, representing 7695 patients in the United States, China, India and Sweden. Advance provision did not decrease pregnancy rates (odds ratio (OR) 0.98, 95% confidence interval (CI) 0.76 to 1.25 in studies for which we included twelve-month follow-up data; OR 0.48, 95% CI 0.18 to 1.29 in a study with seven-month follow-up data; OR 0.92, 95% CI 0.70 to 1.20 in studies for which we included six-month follow-up data; OR 0.49, 95% CI 0.09 to 2.74 in a study with three-month follow-up data), despite reported increased use (single use: OR 2.47, 95% CI 1.80 to 3.40; multiple use: OR 4.13, 95% CI 1.77 to 9.63) and faster use (weighted mean difference (WMD) -12.98 hours, 95% CI -16.66 to -9.31 hours). Advance provision did not lead to increased rates of sexually transmitted infections (OR 1.01, 95% CI 0.75 to 1.37), increased frequency of unprotected intercourse, or changes in contraceptive methods.Women who received emergency contraception in advance were equally likely to use condoms as other women. Authors’ conclusions Advance provision of emergency contraception did not reduce pregnancy rates when compared to conventional provision. Results from primary analyses suggest that advance provision does not negatively impact sexual and reproductive health behaviors and outcomes. Women should have easy access to emergency contraception, because it can decrease the chance of pregnancy.However, the interventions tested thus far have not reduced overall pregnancy rates in the populations studied.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

OBJETIVO: Comparar la efectividad, la seguridad y la aceptación de los abortos médicos practicados en el domicilio con aquellos realizados en la clínica. MÉTODOS: Se realizó una búsqueda sistemática de ensayos clínicos controlados aleatorizados y de estudios de cohortes prospectivos, comparando los abortos médicos realizados en el domicilio y en la clínica. Se realizaron búsquedas en el Registro Central de Cochrane de Ensayos Controlados, EMBASE, MEDLINE y Popline. Los resultados de interés principales fueron el fracaso para abortar completamente, los efectos secundarios y la aceptabilidad. Se calcularon las tasas de probabilidad y sus intervalos de confianza (IC) del 95%. Se reunieron los cálculos aproximados utilizando un modelo de efectos aleatorios. RESULTADOS: Nueve estudios cumplieron los criterios de inclusión (n=4522 participantes).Todos fueron estudios de cohortes prospectivos que utilizaron mifepristona y misoprostol para inducir al aborto. El aborto completo se consiguió en el 86- 97% de las mujeres que se sometieron a un aborto en el domicilio (n=3478) y entre el 80% y el 99% de aquellas mujeres que se sometieron a un aborto en una clínica (n = 1044). Los análisis agrupados de todos los estudios no mostraron diferencias en las tasas de aborto completo entre los grupos (tasa de probabilidad=0,8; IC del 95%: 0,5-1,5). Las complicaciones graves del aborto fueron poco frecuentes. El dolor y los vómitos duraron 0,3 días más en aquellas mujeres a las que se les administró misoprostol en el domicilio, en comparación con las que recibieron el tratamiento en la clínica. Las mujeres que optaron por un aborto médico en el domicilio mostraron un mayor grado de satisfacción, que las llevaría a elegir el método de nuevo y recomendárselo a una amiga, que aquellas mujeres que abortaron en la clínica. CONCLUSIÓN: El aborto en el domicilio es seguro siempre que el lugar cuente con las condiciones incluidas en los estudios. Los estudios de cohortes prospectivos por país no han mostrado diferencias en cuanto a efectividad o aceptabilidad entre abortos médicos en el domicilio y en la clínica.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

El crecimiento de Internet y la proliferación de información multidominio de forma pública ha propiciado la aparición de nuevas oportunidades en entornos muy dispares, principalmente en el ámbito de la investigación. Además, desde que se planteara el concepto de Web Semántica se han venido desarrollando un nutrido conjunto de herramientas y estándares ideados para facilitar la interoperabilidad en la World Wide Web. Este factor adicional posibilita el acceso a datos compartidos y su integración de forma mucho más abierta y comprensible, siendo la tendencia esperada la de acercarse poco a poco a la completa homogeneización de los contenidos disponibles en Internet. En este trabajo de tesis doctoral se presenta un método en cinco fases para la mediación semántica y sintáctica en sistemas de bases de datos integradas. Los lenguajes y estándares más utilizados para el desarrollo de este método son los asociados a la Web Semántica para la descripción de esquemas, recursos y consultas. En conjunto con este trabajo teórico se han desarrollado una serie de componentes software para dar servicio conjunto a las distintas problemáticas asociadas al enfoque elegido. Estos componentes han sido construidos dentro del marco del proyecto europeo ACGT1, centrado en el apoyo a los ensayos clínicos post-genómicos en cáncer. La ejecución completa del método propuesto permite crear consultas SPARQL a partir de descripciones en lenguaje natural, y resolver automáticamente algunos de los problemas más importantes en el proceso de mediación, tales como la resolución de conflictos y ambigüedades, la traducción de consultas y la gestión de restricciones. Además, lo experimentos llevados a cabo en este trabajo muestran cómo estas tareas pueden ser realizadas de manera eficiente. Además de las tareas propias de la mediación semántica, se ha dotado al método de una solución para agilizar la construcción de componentes para la homogeneización de las interfaces sintácticas y tecnológicas con los propios recursos de datos. Esto resulta especialmente útil cuando las fuentes carecen de esquema o el medio de acceso no está diseñado específicamente para llevar a cabo una integración. Para la evaluación de la utilidad, viabilidad y eficiencia del método y las herramientas asociadas se han desarrollado en primer lugar una serie de experimentos en el contexto de ACGT. Estos experimentos han sido validados en diversas revisiones por expertos en el dominio de la medicina y los sistemas de información. Además se presenta una evaluación teórica de la eficiencia de los algoritmos presentados, demostrándose que para el caso general se encuentra una solución en tiempo polinómico. La conclusión final de esta tesis es que el conjunto de técnicas presentadas es útil, viable y eficiente para la explotación de la información integrada a partir de repositorios heterogéneos.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

La Diabetes Mellitus se define como el trastorno del metabolismo de los carbohidratos, resultante de una producción insuficiente o nula de insulina en las células beta del páncreas, o la manifestación de una sensibilidad reducida a la insulina por parte del sistema metabólico. La diabetes tipo 1 se caracteriza por la nula producción de insulina por la destrucción de las células beta del páncreas. Si no hay insulina en el torrente sanguíneo, la glucosa no puede ser absorbida por las células, produciéndose un estado de hiperglucemia en el paciente, que a medio y largo plazo si no es tratado puede ocasionar severas enfermedades, conocidos como síndromes de la diabetes. La diabetes tipo 1 es una enfermedad incurable pero controlable. La terapia para esta enfermedad consiste en la aplicación exógena de insulina con el objetivo de mantener el nivel de glucosa en sangre dentro de los límites normales. Dentro de las múltiples formas de aplicación de la insulina, en este proyecto se usará una bomba de infusión, que unida a un sensor subcutáneo de glucosa permitirá crear un lazo de control autónomo que regule la cantidad optima de insulina aplicada en cada momento. Cuando el algoritmo de control se utiliza en un sistema digital, junto con el sensor subcutáneo y bomba de infusión subcutánea, se conoce como páncreas artificial endocrino (PAE) de uso ambulatorio, hoy día todavía en fase de investigación. Estos algoritmos de control metabólico deben de ser evaluados en simulación para asegurar la integridad física de los pacientes, por lo que es necesario diseñar un sistema de simulación mediante el cual asegure la fiabilidad del PAE. Este sistema de simulación conecta los algoritmos con modelos metabólicos matemáticos para obtener una visión previa de su funcionamiento. En este escenario se diseñó DIABSIM, una herramienta desarrollada en LabViewTM, que posteriormente se trasladó a MATLABTM, y basada en el modelo matemático compartimental propuesto por Hovorka, con la que poder simular y evaluar distintos tipos de terapias y reguladores en lazo cerrado. Para comprobar que estas terapias y reguladores funcionan, una vez simulados y evaluados, se tiene que pasar a la experimentación real a través de un protocolo de ensayo clínico real, como paso previo al PEA ambulatorio. Para poder gestionar este protocolo de ensayo clínico real para la verificación de los algoritmos de control, se creó una interfaz de usuario a través de una serie de funciones de simulación y evaluación de terapias con insulina realizadas con MATLABTM (GUI: Graphics User Interface), conocido como Entorno de Páncreas artificial con Interfaz Clínica (EPIC). EPIC ha sido ya utilizada en 10 ensayos clínicos de los que se han ido proponiendo posibles mejoras, ampliaciones y/o cambios. Este proyecto propone una versión mejorada de la interfaz de usuario EPIC propuesta en un proyecto anterior para gestionar un protocolo de ensayo clínico real para la verificación de algoritmos de control en un ambiente hospitalario muy controlado, además de estudiar la viabilidad de conectar el GUI con SimulinkTM (entorno gráfico de Matlab de simulación de sistemas) para su conexión con un nuevo simulador de pacientes aprobado por la JDRF (Juvenil Diabetes Research Foundation). SUMMARY The diabetes mellitus is a metabolic disorder of carbohydrates, as result of an insufficient or null production of insulin in the beta cellules of pancreas, or the manifestation of a reduced sensibility to the insulin from the metabolic system. The type 1 diabetes is characterized for a null production of insulin due to destruction of the beta cellules. Without insulin in the bloodstream, glucose can’t be absorbed by the cellules, producing a hyperglycemia state in the patient and if pass a medium or long time and is not treated can cause severe disease like diabetes syndrome. The type 1 diabetes is an incurable disease but controllable one. The therapy for this disease consists on the exogenous insulin administration with the objective to maintain the glucose level in blood within the normal limits. For the insulin administration, in this project is used an infusion pump, that permit with a subcutaneous glucose sensor, create an autonomous control loop that regulate the optimal insulin amount apply in each moment. When the control algorithm is used in a digital system, with the subcutaneous senor and infusion subcutaneous pump, is named as “Artificial Endocrine Pancreas” for ambulatory use, currently under investigate. These metabolic control algorithms should be evaluates in simulation for assure patients’ physical integrity, for this reason is necessary to design a simulation system that assure the reliability of PAE. This simulation system connects algorithms with metabolic mathematics models for get a previous vision of its performance. In this scenario was created DIABSIMTM, a tool developed in LabView, that later was converted to MATLABTM, and based in the compartmental mathematic model proposed by Hovorka that could simulate and evaluate several different types of therapy and regulators in closed loop. To check the performance of these therapies and regulators, when have been simulated and evaluated, will be necessary to pass to real experimentation through a protocol of real clinical test like previous step to ambulatory PEA. To manage this protocol was created an user interface through the simulation and evaluation functions od therapies with insulin realized with MATLABTM (GUI: Graphics User Interface), known as “Entorno de Páncreas artificial con Interfaz Clínica” (EPIC).EPIC have been used in 10 clinical tests which have been proposed improvements, adds and changes. This project proposes a best version of user interface EPIC proposed in another project for manage a real test clinical protocol for checking control algorithms in a controlled hospital environment and besides studying viability to connect the GUI with SimulinkTM (Matlab graphical environment in systems simulation) for its connection with a new patients simulator approved for the JDRF (Juvenil Diabetes Research Foundation).

Relevância:

60.00% 60.00%

Publicador:

Resumo:

El trabajo ha sido realizado dentro del marco de los proyectos EURECA (Enabling information re-Use by linking clinical REsearch and Care) e INTEGRATE (Integrative Cancer Research Through Innovative Biomedical Infrastructures), en los que colabora el Grupo de Informática Biomédica de la UPM junto a otras universidades e instituciones sanitarias europeas. En ambos proyectos se desarrollan servicios e infraestructuras con el objetivo principal de almacenar información clínica, procedente de fuentes diversas (como por ejemplo de historiales clínicos electrónicos de hospitales, de ensayos clínicos o artículos de investigación biomédica), de una forma común y fácilmente accesible y consultable para facilitar al máximo la investigación de estos ámbitos, de manera colaborativa entre instituciones. Esta es la idea principal de la interoperabilidad semántica en la que se concentran ambos proyectos, siendo clave para el correcto funcionamiento del software del que se componen. El intercambio de datos con un modelo de representación compartido, común y sin ambigüedades, en el que cada concepto, término o dato clínico tendrá una única forma de representación. Lo cual permite la inferencia de conocimiento, y encaja perfectamente en el contexto de la investigación médica. En concreto, la herramienta a desarrollar en este trabajo también está orientada a la idea de maximizar la interoperabilidad semántica, pues se ocupa de la carga de información clínica con un formato estandarizado en un modelo común de almacenamiento de datos, implementado en bases de datos relacionales. El trabajo ha sido desarrollado en el periodo comprendido entre el 3 de Febrero y el 6 de Junio de 2014. Se ha seguido un ciclo de vida en cascada para la organización del trabajo realizado en las tareas de las que se compone el proyecto, de modo que una fase no puede iniciarse sin que se haya terminado, revisado y aceptado la fase anterior. Exceptuando la tarea de documentación del trabajo (para la elaboración de esta memoria), que se ha desarrollado paralelamente a todas las demás. ----ABSTRACT--- The project has been developed during the second semester of the 2013/2014 academic year. This Project has been done inside EURECA and INTEGRATE European biomedical research projects, where the GIB (Biomedical Informatics Group) of the UPM works as a partner. Both projects aim is to develop platforms and services with the main goal of storing clinical information (e.g. information from hospital electronic health records (EHRs), clinical trials or research articles) in a common way and easy to access and query, in order to support medical research. The whole software environment of these projects is based on the idea of semantic interoperability, which means the ability of computer systems to exchange data with unambiguous and shared meaning. This idea allows knowledge inference, which fits perfectly in medical research context. The tool to develop in this project is also "semantic operability-oriented". Its purpose is to store standardized clinical information in a common data model, implemented in relational databases. The project has been performed during the period between February 3rd and June 6th, of 2014. It has followed a "Waterfall model" of software development, in which progress is seen as flowing steadily downwards through its phases. Each phase starts when its previous phase has been completed and reviewed. The task of documenting the project‟s work is an exception; it has been performed in a parallel way to the rest of the tasks.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Hoy día, en la era post genómica, los ensayos clínicos de cáncer implican la colaboración de diversas instituciones. El análisis multicéntrico y retrospectivo requiere de métodos avanzados para garantizar la interoperabilidad semántica. En este escenario, el objetivo de los proyectos EURECA e INTEGRATE es proporcionar una infraestructura para compartir conocimientos y datos de los ensayos clínicos post genómicos de cáncer. Debido en gran parte a la gran complejidad de los procesos colaborativos de las instituciones, provoca que la gestión de una información tan heterogénea sea un desafío dentro del área médica. Las tecnologías semánticas y las investigaciones relacionadas están centradas en búsqueda de conocimiento de la información extraída, permitiendo una mayor flexibilidad y usabilidad de los datos extraidos. Debido a la falta de estándares adoptados por estas entidades y la complejidad de los datos procedentes de ensayos clínicos, una capacidad semántica es esencial para asegurar la integración homogénea de esta información. De otra manera, los usuarios finales necesitarán conocer cada modelo y cada formato de dato de las instituciones participantes en cada estudio. Para proveer de una capa de interoperabilidad semántica, el primer paso es proponer un\Common Data Model" (CDM) que represente la información a almacenar, y un \Core Dataset" que permita el uso de múltiples terminologías como vocabulario compartido. Una vez que el \Core Dataset" y el CDM han sido seleccionados, la manera en la que realizar el mapping para unir los conceptos de una terminología dada al CDM, requiere de una mecanismo especial para realizar dicha labor. Dicho mecanismo, debe definir que conceptos de diferentes vocabularios pueden ser almacenados en determinados campos del modelo de datos, con la finalidad de crear una representación común de la información. El presente proyecto fin de grado, presenta el desarrollo de un servicio que implementa dicho mecanismo para vincular elementos de las terminologías médicas SNOMED CT, LOINC y HGNC, con objetos del \Health Level 7 Reference Information Model" (HL7 RIM). El servicio propuesto, y nombrado como TermBinding, sigue las recomendaciones del proyecto TermInfo del grupo HL7, pero también se tienen en cuenta cuestiones importantes que surgen al enlazar entre las citadas terminologas y el modelo de datos planteado. En este proceso de desarrollo de la interoperabilidad semántica en ensayos clínicos de cáncer, los datos de fuentes heterogéneas tienen que ser integrados, y es requisito que se deba habilitar una interfaz de acceso homogéneo a toda esta información. Para poder hacer unificar los datos provenientes de diferentes aplicaciones y bases de datos, es esencial representar todos estos datos de una manera canónica o normalizada. La estandarización de un determinado concepto de SNOMED CT, simplifica las recomendaciones del proyecto TermInfo del grupo HL7, utilizadas para poder almacenar cada concepto en el modelo de datos. Siguiendo este enfoque, la interoperabilidad semántica es conseguida con éxito para conceptos SNOMED CT, sean o no post o pre coordinados, así como para las terminologías LOINC y HGNC. Los conceptos son estandarizados en una forma normal que puede ser usada para unir los datos al \Common Data Model" basado en el RIM de HL7. Aunque existen limitaciones debido a la gran heterogeneidad de los datos a integrar, un primer prototipo del servicio propuesto se está utilizando con éxito en el contexto de los proyectos EURECA e INTEGRATE. Una mejora en la interoperabilidad semántica de los datos de ensayos clínicos de cáncer tiene como objetivo mejorar las prácticas en oncología.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

La nanotecnología es un área de investigación de reciente creación que trata con la manipulación y el control de la materia con dimensiones comprendidas entre 1 y 100 nanómetros. A escala nanométrica, los materiales exhiben fenómenos físicos, químicos y biológicos singulares, muy distintos a los que manifiestan a escala convencional. En medicina, los compuestos miniaturizados a nanoescala y los materiales nanoestructurados ofrecen una mayor eficacia con respecto a las formulaciones químicas tradicionales, así como una mejora en la focalización del medicamento hacia la diana terapéutica, revelando así nuevas propiedades diagnósticas y terapéuticas. A su vez, la complejidad de la información a nivel nano es mucho mayor que en los niveles biológicos convencionales (desde el nivel de población hasta el nivel de célula) y, por tanto, cualquier flujo de trabajo en nanomedicina requiere, de forma inherente, estrategias de gestión de información avanzadas. Desafortunadamente, la informática biomédica todavía no ha proporcionado el marco de trabajo que permita lidiar con estos retos de la información a nivel nano, ni ha adaptado sus métodos y herramientas a este nuevo campo de investigación. En este contexto, la nueva área de la nanoinformática pretende detectar y establecer los vínculos existentes entre la medicina, la nanotecnología y la informática, fomentando así la aplicación de métodos computacionales para resolver las cuestiones y problemas que surgen con la información en la amplia intersección entre la biomedicina y la nanotecnología. Las observaciones expuestas previamente determinan el contexto de esta tesis doctoral, la cual se centra en analizar el dominio de la nanomedicina en profundidad, así como en el desarrollo de estrategias y herramientas para establecer correspondencias entre las distintas disciplinas, fuentes de datos, recursos computacionales y técnicas orientadas a la extracción de información y la minería de textos, con el objetivo final de hacer uso de los datos nanomédicos disponibles. El autor analiza, a través de casos reales, alguna de las tareas de investigación en nanomedicina que requieren o que pueden beneficiarse del uso de métodos y herramientas nanoinformáticas, ilustrando de esta forma los inconvenientes y limitaciones actuales de los enfoques de informática biomédica a la hora de tratar con datos pertenecientes al dominio nanomédico. Se discuten tres escenarios diferentes como ejemplos de actividades que los investigadores realizan mientras llevan a cabo su investigación, comparando los contextos biomédico y nanomédico: i) búsqueda en la Web de fuentes de datos y recursos computacionales que den soporte a su investigación; ii) búsqueda en la literatura científica de resultados experimentales y publicaciones relacionadas con su investigación; iii) búsqueda en registros de ensayos clínicos de resultados clínicos relacionados con su investigación. El desarrollo de estas actividades requiere el uso de herramientas y servicios informáticos, como exploradores Web, bases de datos de referencias bibliográficas indexando la literatura biomédica y registros online de ensayos clínicos, respectivamente. Para cada escenario, este documento proporciona un análisis detallado de los posibles obstáculos que pueden dificultar el desarrollo y el resultado de las diferentes tareas de investigación en cada uno de los dos campos citados (biomedicina y nanomedicina), poniendo especial énfasis en los retos existentes en la investigación nanomédica, campo en el que se han detectado las mayores dificultades. El autor ilustra cómo la aplicación de metodologías provenientes de la informática biomédica a estos escenarios resulta efectiva en el dominio biomédico, mientras que dichas metodologías presentan serias limitaciones cuando son aplicadas al contexto nanomédico. Para abordar dichas limitaciones, el autor propone un enfoque nanoinformático, original, diseñado específicamente para tratar con las características especiales que la información presenta a nivel nano. El enfoque consiste en un análisis en profundidad de la literatura científica y de los registros de ensayos clínicos disponibles para extraer información relevante sobre experimentos y resultados en nanomedicina —patrones textuales, vocabulario en común, descriptores de experimentos, parámetros de caracterización, etc.—, seguido del desarrollo de mecanismos para estructurar y analizar dicha información automáticamente. Este análisis concluye con la generación de un modelo de datos de referencia (gold standard) —un conjunto de datos de entrenamiento y de test anotados manualmente—, el cual ha sido aplicado a la clasificación de registros de ensayos clínicos, permitiendo distinguir automáticamente los estudios centrados en nanodrogas y nanodispositivos de aquellos enfocados a testear productos farmacéuticos tradicionales. El presente trabajo pretende proporcionar los métodos necesarios para organizar, depurar, filtrar y validar parte de los datos nanomédicos existentes en la actualidad a una escala adecuada para la toma de decisiones. Análisis similares para otras tareas de investigación en nanomedicina ayudarían a detectar qué recursos nanoinformáticos se requieren para cumplir los objetivos actuales en el área, así como a generar conjunto de datos de referencia, estructurados y densos en información, a partir de literatura y otros fuentes no estructuradas para poder aplicar nuevos algoritmos e inferir nueva información de valor para la investigación en nanomedicina. ABSTRACT Nanotechnology is a research area of recent development that deals with the manipulation and control of matter with dimensions ranging from 1 to 100 nanometers. At the nanoscale, materials exhibit singular physical, chemical and biological phenomena, very different from those manifested at the conventional scale. In medicine, nanosized compounds and nanostructured materials offer improved drug targeting and efficacy with respect to traditional formulations, and reveal novel diagnostic and therapeutic properties. Nevertheless, the complexity of information at the nano level is much higher than the complexity at the conventional biological levels (from populations to the cell). Thus, any nanomedical research workflow inherently demands advanced information management. Unfortunately, Biomedical Informatics (BMI) has not yet provided the necessary framework to deal with such information challenges, nor adapted its methods and tools to the new research field. In this context, the novel area of nanoinformatics aims to build new bridges between medicine, nanotechnology and informatics, allowing the application of computational methods to solve informational issues at the wide intersection between biomedicine and nanotechnology. The above observations determine the context of this doctoral dissertation, which is focused on analyzing the nanomedical domain in-depth, and developing nanoinformatics strategies and tools to map across disciplines, data sources, computational resources, and information extraction and text mining techniques, for leveraging available nanomedical data. The author analyzes, through real-life case studies, some research tasks in nanomedicine that would require or could benefit from the use of nanoinformatics methods and tools, illustrating present drawbacks and limitations of BMI approaches to deal with data belonging to the nanomedical domain. Three different scenarios, comparing both the biomedical and nanomedical contexts, are discussed as examples of activities that researchers would perform while conducting their research: i) searching over the Web for data sources and computational resources supporting their research; ii) searching the literature for experimental results and publications related to their research, and iii) searching clinical trial registries for clinical results related to their research. The development of these activities will depend on the use of informatics tools and services, such as web browsers, databases of citations and abstracts indexing the biomedical literature, and web-based clinical trial registries, respectively. For each scenario, this document provides a detailed analysis of the potential information barriers that could hamper the successful development of the different research tasks in both fields (biomedicine and nanomedicine), emphasizing the existing challenges for nanomedical research —where the major barriers have been found. The author illustrates how the application of BMI methodologies to these scenarios can be proven successful in the biomedical domain, whilst these methodologies present severe limitations when applied to the nanomedical context. To address such limitations, the author proposes an original nanoinformatics approach specifically designed to deal with the special characteristics of information at the nano level. This approach consists of an in-depth analysis of the scientific literature and available clinical trial registries to extract relevant information about experiments and results in nanomedicine —textual patterns, common vocabulary, experiment descriptors, characterization parameters, etc.—, followed by the development of mechanisms to automatically structure and analyze this information. This analysis resulted in the generation of a gold standard —a manually annotated training or reference set—, which was applied to the automatic classification of clinical trial summaries, distinguishing studies focused on nanodrugs and nanodevices from those aimed at testing traditional pharmaceuticals. The present work aims to provide the necessary methods for organizing, curating and validating existing nanomedical data on a scale suitable for decision-making. Similar analysis for different nanomedical research tasks would help to detect which nanoinformatics resources are required to meet current goals in the field, as well as to generate densely populated and machine-interpretable reference datasets from the literature and other unstructured sources for further testing novel algorithms and inferring new valuable information for nanomedicine.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

En los últimos años ha habido un gran aumento de fuentes de datos biomédicos. La aparición de nuevas técnicas de extracción de datos genómicos y generación de bases de datos que contienen esta información ha creado la necesidad de guardarla para poder acceder a ella y trabajar con los datos que esta contiene. La información contenida en las investigaciones del campo biomédico se guarda en bases de datos. Esto se debe a que las bases de datos permiten almacenar y manejar datos de una manera simple y rápida. Dentro de las bases de datos existen una gran variedad de formatos, como pueden ser bases de datos en Excel, CSV o RDF entre otros. Actualmente, estas investigaciones se basan en el análisis de datos, para a partir de ellos, buscar correlaciones que permitan inferir, por ejemplo, tratamientos nuevos o terapias más efectivas para una determinada enfermedad o dolencia. El volumen de datos que se maneja en ellas es muy grande y dispar, lo que hace que sea necesario el desarrollo de métodos automáticos de integración y homogeneización de los datos heterogéneos. El proyecto europeo p-medicine (FP7-ICT-2009-270089) tiene como objetivo asistir a los investigadores médicos, en este caso de investigaciones relacionadas con el cáncer, proveyéndoles con nuevas herramientas para el manejo de datos y generación de nuevo conocimiento a partir del análisis de los datos gestionados. La ingestión de datos en la plataforma de p-medicine, y el procesamiento de los mismos con los métodos proporcionados, buscan generar nuevos modelos para la toma de decisiones clínicas. Dentro de este proyecto existen diversas herramientas para integración de datos heterogéneos, diseño y gestión de ensayos clínicos, simulación y visualización de tumores y análisis estadístico de datos. Precisamente en el ámbito de la integración de datos heterogéneos surge la necesidad de añadir información externa al sistema proveniente de bases de datos públicas, así como relacionarla con la ya existente mediante técnicas de integración semántica. Para resolver esta necesidad se ha creado una herramienta, llamada Term Searcher, que permite hacer este proceso de una manera semiautomática. En el trabajo aquí expuesto se describe el desarrollo y los algoritmos creados para su correcto funcionamiento. Esta herramienta ofrece nuevas funcionalidades que no existían dentro del proyecto para la adición de nuevos datos provenientes de fuentes públicas y su integración semántica con datos privados.---ABSTRACT---Over the last few years, there has been a huge growth of biomedical data sources. The emergence of new techniques of genomic data generation and data base generation that contain this information, has created the need of storing it in order to access and work with its data. The information employed in the biomedical research field is stored in databases. This is due to the capability of databases to allow storing and managing data in a quick and simple way. Within databases there is a variety of formats, such as Excel, CSV or RDF. Currently, these biomedical investigations are based on data analysis, which lead to the discovery of correlations that allow inferring, for example, new treatments or more effective therapies for a specific disease or ailment. The volume of data handled in them is very large and dissimilar, which leads to the need of developing new methods for automatically integrating and homogenizing the heterogeneous data. The p-medicine (FP7-ICT-2009-270089) European project aims to assist medical researchers, in this case related to cancer research, providing them with new tools for managing and creating new knowledge from the analysis of the managed data. The ingestion of data into the platform and its subsequent processing with the provided tools aims to enable the generation of new models to assist in clinical decision support processes. Inside this project, there exist different tools related to areas such as the integration of heterogeneous data, the design and management of clinical trials, simulation and visualization of tumors and statistical data analysis. Particularly in the field of heterogeneous data integration, there is a need to add external information from public databases, and relate it to the existing ones through semantic integration methods. To solve this need a tool has been created: the term Searcher. This tool aims to make this process in a semiautomatic way. This work describes the development of this tool and the algorithms employed in its operation. This new tool provides new functionalities that did not exist inside the p-medicine project for adding new data from public databases and semantically integrate them with private data.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

La leishmaniosis canina (Lcan) causada por Leishmania infantum es una zoonosis de distribución mundial endémica en la cuenca mediterránea. Es transmitida a humanos y animales mediante la picadura de las hembras de flebotomos, siendo el perro tanto un hospedador natural como el principal reservorio. Las manifestaciones clínicas de la infección por L. infantum en el perro son muy variables, desde una infección subclínica crónica hasta una enfermedad grave, que puede ser fatal. Debido a su compleja patogénesis y al importante papel que juega la respuesta inmunitaria, tanto el diagnóstico como el tratamiento y prevención de esta enfermedad son un reto desde el punto de vista veterinario y de Salud Pública. El objetivo fundamental de esta Tesis Doctoral ha sido encontrar nuevas alternativas tanto diagnósticas como terapéuticas en la Lcan. En cuanto al diagnóstico se ha evaluado el uso de muestras obtenidas de forma menos invasiva y dolorosa, y mejor aceptadas por los perros y por ende por sus propietarios. Y con respecto al tratamiento, se han evaluado dos nuevas moléculas buscando que sea más económico, eficaz, bien tolerado y de fácil administración. Para ello se han realizado tres ensayos clínicos: los dos primeros con un modelo experimental canino y el tercero en perros con infección natural por L. infantum. Para los dos primeros ensayos se empleó el mismo modelo experimental canino, que consistió en ocho perras de raza Beagle infectadas experimentalmente con L. infantum, a razón de 5x107 promastigotes/ml por vía intravenosa...

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Antecedentes/Objetivos: Los sesgos de género en los ensayos clínicos (EC) se demostraron ya en los 90. Objetivo: analizar el cumplimiento del Informe Público Europeo de Evaluación (EPAR) de anticonceptivos y fármacos para la disfunción eréctil (FDE) realizado por la Agencia Europea de Medicamentos (EMA) respecto a sus recomendaciones de elaboración. Métodos: Análisis del contenido sobre eficacia, seguridad, farmacocinética (FC) y farmacodinámica (FD) del EPAR de 3 anticonceptivos y 3 FDE, y de sus fichas técnicas. Fuente de información: Base de datos de EMA. Descriptores: “erectile dysfunction” y “contraception”. Criterios exclusión: fármacos no autorizados, genéricos, que presenten el mismo informe. Resultados: Los EPAR de FDE no aportan datos del nº de EC de seguridad de Viagra, ni de las fases de 3 de los 11 EC de Levitra. Faltan datos sobre fases de 2 de los 6 EC de eficacia de Viagra. Ni datos de absorción de Cialis y Levitra sobre biodisponibilidad absoluta y relativa (salvo en 2º EPAR de Levitra). No datos de interacción alimentaria de Cialis. El EPAR del anticonceptivo Zoely no aporta información de las fases de 4 de los 8 EC sobre seguridad. Eficacia bien descrita, excepto Zoely (no refleja datos de EC dosis-respuesta, respecto a evidencia preliminar de eficacia, y de plan y dosis recomendada). En FD: Faltan datos de Zoely y EllaOne sobre concentración plasmática y efecto, comparación placebo o medicamento de referencia, EC para tipos concretos de efectos adversos, e interacciones con medicamentos. En Zoely no coincide la dosis estudiada con la autorizada. No datos de las fases de los EC de FC de EVRA y EllaOne, ni de 1/6 EC de Zoely. Hay datos de interacciones alimentarias en todos los anticonceptivos, pero no de absorción, respecto biodisponibilidad absoluta ni relativa. La información de eliminación es reflejada, excepto en el aclaramiento y vida media de Zoely. El nº de EC de las interacciones con otros fármacos fue < en los anticonceptivos respeto a los FDE. Las reacciones adversas (RAM) en los EPAR son más frecuentes en anticonceptivos (Evra: 80%, EllaOne: 79%, Zoely: 75%) que en FDE (Viagra: 65%, Cialis: 66,7%, Levitra: 64,3%). Hay RAM en los EPAR que no aparecen en su ficha técnica (EVRA: 4, EllaOne: 10, Zoely: 3, 2º EPAR Cialis: 6, 2º EPAR Levitra: 1). Conclusiones: La EMA no sigue sus propias guías de elaboración del EPAR al recomendar la aprobación de la comercialización de FDE y anticonceptivos a la Comisión Europea con falta de datos relevantes sobre seguridad, FC y FD. Las diferencias observadas en los EPAR entre ambos tipos de fármacos, sugieren sesgos de género en la información sobre seguridad y FC.