969 resultados para Investigación médica


Relevância:

60.00% 60.00%

Publicador:

Resumo:

La materia está formada de átomos y su estudio es parte de la química. Nuestro conocimiento de cómo se comportan los átomos y otras partículas se utiliza para la elaboración de productos químicos, en la investigación médica, en la generación de energía, y en la ingeniería.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Repaso del esplendoroso periodo del Califato de Córdoba y de los posteriores reinos Taifas, especialmente, en la actividad cultural desarrollada por los árabes en la Península y el legado que dejaron en el arte, la ciencia, la técnica y la industria. En el campo de la medicina, se destacan los límites que imponen las prescripciones del Corán, lo cual supuso un retroceso en el campo de la investigación médica, pero un gran avance en cuanto a observaciones y conocimientos médicos, farmacología, creación de hospitales y el aprendizaje dentro de los mismos. Se incluyen reseñas de los grandes médicos de esta época y sus obras más importantes conocidas y traducidas.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Se pretende contribuir a que el alumnado aprenda a distinguir la información científica de la que no lo es; a valorar el respeto por la naturaleza y el medio ambiente y a conocer cómo influimos en el calentamiento global del planeta, comprendiendo las energías renovables, el reciclaje o los nuevos materiales para aprender a vivir más o mejor e integrando en nuestras vidas los avances en las nuevas tecnologías y la investigación médica. Incluye tres grandes finalidades: comprender algunos aspectos de los temas científicos actuales con sus implicaciones sociales, ser conscientes de la controversia que suscitan, y por último adquirir actitudes de curiosidad, antidogmatismo y tolerancia para ser capaz de fundamentar las afirmaciones y toma de decisiones. Todo ello desde el enfoque del aprendizaje significativo que incluya la adquisición de competencias científicas y una metodología interactiva.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

El trabajo ha sido realizado dentro del marco de los proyectos EURECA (Enabling information re-Use by linking clinical REsearch and Care) e INTEGRATE (Integrative Cancer Research Through Innovative Biomedical Infrastructures), en los que colabora el Grupo de Informática Biomédica de la UPM junto a otras universidades e instituciones sanitarias europeas. En ambos proyectos se desarrollan servicios e infraestructuras con el objetivo principal de almacenar información clínica, procedente de fuentes diversas (como por ejemplo de historiales clínicos electrónicos de hospitales, de ensayos clínicos o artículos de investigación biomédica), de una forma común y fácilmente accesible y consultable para facilitar al máximo la investigación de estos ámbitos, de manera colaborativa entre instituciones. Esta es la idea principal de la interoperabilidad semántica en la que se concentran ambos proyectos, siendo clave para el correcto funcionamiento del software del que se componen. El intercambio de datos con un modelo de representación compartido, común y sin ambigüedades, en el que cada concepto, término o dato clínico tendrá una única forma de representación. Lo cual permite la inferencia de conocimiento, y encaja perfectamente en el contexto de la investigación médica. En concreto, la herramienta a desarrollar en este trabajo también está orientada a la idea de maximizar la interoperabilidad semántica, pues se ocupa de la carga de información clínica con un formato estandarizado en un modelo común de almacenamiento de datos, implementado en bases de datos relacionales. El trabajo ha sido desarrollado en el periodo comprendido entre el 3 de Febrero y el 6 de Junio de 2014. Se ha seguido un ciclo de vida en cascada para la organización del trabajo realizado en las tareas de las que se compone el proyecto, de modo que una fase no puede iniciarse sin que se haya terminado, revisado y aceptado la fase anterior. Exceptuando la tarea de documentación del trabajo (para la elaboración de esta memoria), que se ha desarrollado paralelamente a todas las demás. ----ABSTRACT--- The project has been developed during the second semester of the 2013/2014 academic year. This Project has been done inside EURECA and INTEGRATE European biomedical research projects, where the GIB (Biomedical Informatics Group) of the UPM works as a partner. Both projects aim is to develop platforms and services with the main goal of storing clinical information (e.g. information from hospital electronic health records (EHRs), clinical trials or research articles) in a common way and easy to access and query, in order to support medical research. The whole software environment of these projects is based on the idea of semantic interoperability, which means the ability of computer systems to exchange data with unambiguous and shared meaning. This idea allows knowledge inference, which fits perfectly in medical research context. The tool to develop in this project is also "semantic operability-oriented". Its purpose is to store standardized clinical information in a common data model, implemented in relational databases. The project has been performed during the period between February 3rd and June 6th, of 2014. It has followed a "Waterfall model" of software development, in which progress is seen as flowing steadily downwards through its phases. Each phase starts when its previous phase has been completed and reviewed. The task of documenting the project‟s work is an exception; it has been performed in a parallel way to the rest of the tasks.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

En el mundo actual las aplicaciones basadas en sistemas biométricos, es decir, aquellas que miden las señales eléctricas de nuestro organismo, están creciendo a un gran ritmo. Todos estos sistemas incorporan sensores biomédicos, que ayudan a los usuarios a controlar mejor diferentes aspectos de la rutina diaria, como podría ser llevar un seguimiento detallado de una rutina deportiva, o de la calidad de los alimentos que ingerimos. Entre estos sistemas biométricos, los que se basan en la interpretación de las señales cerebrales, mediante ensayos de electroencefalografía o EEG están cogiendo cada vez más fuerza para el futuro, aunque están todavía en una situación bastante incipiente, debido a la elevada complejidad del cerebro humano, muy desconocido para los científicos hasta el siglo XXI. Por estas razones, los dispositivos que utilizan la interfaz cerebro-máquina, también conocida como BCI (Brain Computer Interface), están cogiendo cada vez más popularidad. El funcionamiento de un sistema BCI consiste en la captación de las ondas cerebrales de un sujeto para después procesarlas e intentar obtener una representación de una acción o de un pensamiento del individuo. Estos pensamientos, correctamente interpretados, son posteriormente usados para llevar a cabo una acción. Ejemplos de aplicación de sistemas BCI podrían ser mover el motor de una silla de ruedas eléctrica cuando el sujeto realice, por ejemplo, la acción de cerrar un puño, o abrir la cerradura de tu propia casa usando un patrón cerebral propio. Los sistemas de procesamiento de datos están evolucionando muy rápido con el paso del tiempo. Los principales motivos son la alta velocidad de procesamiento y el bajo consumo energético de las FPGAs (Field Programmable Gate Array). Además, las FPGAs cuentan con una arquitectura reconfigurable, lo que las hace más versátiles y potentes que otras unidades de procesamiento como las CPUs o las GPUs.En el CEI (Centro de Electrónica Industrial), donde se lleva a cabo este TFG, se dispone de experiencia en el diseño de sistemas reconfigurables en FPGAs. Este TFG es el segundo de una línea de proyectos en la cual se busca obtener un sistema capaz de procesar correctamente señales cerebrales, para llegar a un patrón común que nos permita actuar en consecuencia. Más concretamente, se busca detectar cuando una persona está quedándose dormida a través de la captación de unas ondas cerebrales, conocidas como ondas alfa, cuya frecuencia está acotada entre los 8 y los 13 Hz. Estas ondas, que aparecen cuando cerramos los ojos y dejamos la mente en blanco, representan un estado de relajación mental. Por tanto, este proyecto comienza como inicio de un sistema global de BCI, el cual servirá como primera toma de contacto con el procesamiento de las ondas cerebrales, para el posterior uso de hardware reconfigurable sobre el cual se implementarán los algoritmos evolutivos. Por ello se vuelve necesario desarrollar un sistema de procesamiento de datos en una FPGA. Estos datos se procesan siguiendo la metodología de procesamiento digital de señales, y en este caso se realiza un análisis de la frecuencia utilizando la transformada rápida de Fourier, o FFT. Una vez desarrollado el sistema de procesamiento de los datos, se integra con otro sistema que se encarga de captar los datos recogidos por un ADC (Analog to Digital Converter), conocido como ADS1299. Este ADC está especialmente diseñado para captar potenciales del cerebro humano. De esta forma, el sistema final capta los datos mediante el ADS1299, y los envía a la FPGA que se encarga de procesarlos. La interpretación es realizada por los usuarios que analizan posteriormente los datos procesados. Para el desarrollo del sistema de procesamiento de los datos, se dispone primariamente de dos plataformas de estudio, a partir de las cuales se captarán los datos para después realizar el procesamiento: 1. La primera consiste en una herramienta comercial desarrollada y distribuida por OpenBCI, proyecto que se dedica a la venta de hardware para la realización de EEG, así como otros ensayos. Esta herramienta está formada por un microprocesador, un módulo de memoria SD para el almacenamiento de datos, y un módulo de comunicación inalámbrica que transmite los datos por Bluetooth. Además cuenta con el mencionado ADC ADS1299. Esta plataforma ofrece una interfaz gráfica que sirve para realizar la investigación previa al diseño del sistema de procesamiento, al permitir tener una primera toma de contacto con el sistema. 2. La segunda plataforma consiste en un kit de evaluación para el ADS1299, desde la cual se pueden acceder a los diferentes puertos de control a través de los pines de comunicación del ADC. Esta plataforma se conectará con la FPGA en el sistema integrado. Para entender cómo funcionan las ondas más simples del cerebro, así como saber cuáles son los requisitos mínimos en el análisis de ondas EEG se realizaron diferentes consultas con el Dr Ceferino Maestu, neurofisiólogo del Centro de Tecnología Biomédica (CTB) de la UPM. Él se encargó de introducirnos en los distintos procedimientos en el análisis de ondas en electroencefalogramas, así como la forma en que se deben de colocar los electrodos en el cráneo. Para terminar con la investigación previa, se realiza en MATLAB un primer modelo de procesamiento de los datos. Una característica muy importante de las ondas cerebrales es la aleatoriedad de las mismas, de forma que el análisis en el dominio del tiempo se vuelve muy complejo. Por ello, el paso más importante en el procesamiento de los datos es el paso del dominio temporal al dominio de la frecuencia, mediante la aplicación de la transformada rápida de Fourier o FFT (Fast Fourier Transform), donde se pueden analizar con mayor precisión los datos recogidos. El modelo desarrollado en MATLAB se utiliza para obtener los primeros resultados del sistema de procesamiento, el cual sigue los siguientes pasos. 1. Se captan los datos desde los electrodos y se escriben en una tabla de datos. 2. Se leen los datos de la tabla. 3. Se elige el tamaño temporal de la muestra a procesar. 4. Se aplica una ventana para evitar las discontinuidades al principio y al final del bloque analizado. 5. Se completa la muestra a convertir con con zero-padding en el dominio del tiempo. 6. Se aplica la FFT al bloque analizado con ventana y zero-padding. 7. Los resultados se llevan a una gráfica para ser analizados. Llegados a este punto, se observa que la captación de ondas alfas resulta muy viable. Aunque es cierto que se presentan ciertos problemas a la hora de interpretar los datos debido a la baja resolución temporal de la plataforma de OpenBCI, este es un problema que se soluciona en el modelo desarrollado, al permitir el kit de evaluación (sistema de captación de datos) actuar sobre la velocidad de captación de los datos, es decir la frecuencia de muestreo, lo que afectará directamente a esta precisión. Una vez llevado a cabo el primer procesamiento y su posterior análisis de los resultados obtenidos, se procede a realizar un modelo en Hardware que siga los mismos pasos que el desarrollado en MATLAB, en la medida que esto sea útil y viable. Para ello se utiliza el programa XPS (Xilinx Platform Studio) contenido en la herramienta EDK (Embedded Development Kit), que nos permite diseñar un sistema embebido. Este sistema cuenta con: Un microprocesador de tipo soft-core llamado MicroBlaze, que se encarga de gestionar y controlar todo el sistema; Un bloque FFT que se encarga de realizar la transformada rápida Fourier; Cuatro bloques de memoria BRAM, donde se almacenan los datos de entrada y salida del bloque FFT y un multiplicador para aplicar la ventana a los datos de entrada al bloque FFT; Un bus PLB, que consiste en un bus de control que se encarga de comunicar el MicroBlaze con los diferentes elementos del sistema. Tras el diseño Hardware se procede al diseño Software utilizando la herramienta SDK(Software Development Kit).También en esta etapa se integra el sistema de captación de datos, el cual se controla mayoritariamente desde el MicroBlaze. Por tanto, desde este entorno se programa el MicroBlaze para gestionar el Hardware que se ha generado. A través del Software se gestiona la comunicación entre ambos sistemas, el de captación y el de procesamiento de los datos. También se realiza la carga de los datos de la ventana a aplicar en la memoria correspondiente. En las primeras etapas de desarrollo del sistema, se comienza con el testeo del bloque FFT, para poder comprobar el funcionamiento del mismo en Hardware. Para este primer ensayo, se carga en la BRAM los datos de entrada al bloque FFT y en otra BRAM los datos de la ventana aplicada. Los datos procesados saldrán a dos BRAM, una para almacenar los valores reales de la transformada y otra para los imaginarios. Tras comprobar el correcto funcionamiento del bloque FFT, se integra junto al sistema de adquisición de datos. Posteriormente se procede a realizar un ensayo de EEG real, para captar ondas alfa. Por otro lado, y para validar el uso de las FPGAs como unidades ideales de procesamiento, se realiza una medición del tiempo que tarda el bloque FFT en realizar la transformada. Este tiempo se compara con el tiempo que tarda MATLAB en realizar la misma transformada a los mismos datos. Esto significa que el sistema desarrollado en Hardware realiza la transformada rápida de Fourier 27 veces más rápido que lo que tarda MATLAB, por lo que se puede ver aquí la gran ventaja competitiva del Hardware en lo que a tiempos de ejecución se refiere. En lo que al aspecto didáctico se refiere, este TFG engloba diferentes campos. En el campo de la electrónica:  Se han mejorado los conocimientos en MATLAB, así como diferentes herramientas que ofrece como FDATool (Filter Design Analysis Tool).  Se han adquirido conocimientos de técnicas de procesado de señal, y en particular, de análisis espectral.  Se han mejorado los conocimientos en VHDL, así como su uso en el entorno ISE de Xilinx.  Se han reforzado los conocimientos en C mediante la programación del MicroBlaze para el control del sistema.  Se ha aprendido a crear sistemas embebidos usando el entorno de desarrollo de Xilinx usando la herramienta EDK (Embedded Development Kit). En el campo de la neurología, se ha aprendido a realizar ensayos EEG, así como a analizar e interpretar los resultados mostrados en el mismo. En cuanto al impacto social, los sistemas BCI afectan a muchos sectores, donde destaca el volumen de personas con discapacidades físicas, para los cuales, este sistema implica una oportunidad de aumentar su autonomía en el día a día. También otro sector importante es el sector de la investigación médica, donde los sistemas BCIs son aplicables en muchas aplicaciones como, por ejemplo, la detección y estudio de enfermedades cognitivas.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Purpose. To evaluate the preventive effect of tauroursodeoxycholic acid (TUDCA) on photoreceptor degeneration, synaptic connectivity and functional activity of the retina in the transgenic P23H rat, an animal model of autosomal dominant retinitis pigmentosa (RP). Methods. P23H line-3 rats were injected with TUDCA once a week from postnatal day (P)21 to P120, in parallel with vehicle-administered controls. At P120, functional activity of the retina was evaluated by electroretinographic (ERG) recording. The effects of TUDCA on the number, morphology, integrity, and synaptic connectivity of retinal cells were characterized by immunofluorescence confocal microscopy. Results. The amplitude of ERG a- and b-waves was significantly higher in TUDCA-treated animals under both scotopic and photopic conditions than in control animals. In the central area of the retina, TUDCA-treated P23H rats showed threefold more photoreceptors than control animals. The number of TUNEL-positive cells was significantly smaller in TUDCA-treated rats, in which photoreceptor morphology was preserved. Presynaptic and postsynaptic elements, as well as the synaptic contacts between photoreceptors and bipolar or horizontal cells, were preserved in TUDCA-treated P23H rats. Furthermore, in TUDCA-treated rat retinas, the number of both rod bipolar and horizontal cell bodies, as well as the density of their synaptic terminals in the outer plexiform layer, was greater than in control rats. Conclusions. TUDCA treatment was capable of preserving cone and rod structure and function, together with their contacts with their postsynaptic neurons. The neuroprotective effects of TUDCA make this compound potentially useful for delaying retinal degeneration in RP.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Nivel educativo: Grado Duración (en horas): Más de 50 horas

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Introducción: Uno de los grandes temas en discusión en 2012 por parte de la doctrina jurídica argentina ha sido la presentación ante el Congreso Nacional del “Proyecto de Reforma, Unificación y Actualización de los Códigos Civil y Comercial de la Nación”. Así las cosas, varias son las voces que se han alzado tanto a favor de la reforma como en su contra. Mientras que algunos consideran que la legislación proyectada implica un avance en materia de derechos humanos, llegando a tildarla como la “reforma más participativa de la historia”1; otros se apartan de esta idea y ven en el Proyecto grandes deficiencias. En el presente trabajo intentaremos analizar uno de los artículos más polémicos de la reforma: el Artículo 19, referente al comienzo de la existencia de la persona humana. Mas no habremos de agotar nuestra investigación allí, proseguiremos analizando otro artículo que puede pasar inadvertido pero que conlleva grandes implicancias si se analiza a la luz del 19. Hacemos referencia al Artículo 57, el cual trata acerca de las prácticas destinadas a alterar la constitución genética de la descendencia. Por último, buscaremos ver qué implicancias puede generar este panorama respecto de la responsabilidad de los profesionales de la salud.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El libro es una contribución importante al análisis de la productividad de médicos, investigadores y centros de hospitalización vinculados al proceso científico del país. En sus páginas se encuentra información sistemática y accesible a los lectores sobre el desarrollo de la medicina clínica en Colombia. Nunca antes se había logrado un análisis tan completo de los que pareciera una compleja e irrealizable tarea. Los académicos y todos los miembros del sistema de salud encontrarán aquí los datos para entender la dinámica de los recursos humanos que trabajan en la investigación clínica en salud, con el fin de determinar sus formas organizativas, diferenciadas como comunidad científica, su visibilidad y reconocimiento social. Con los indicadores aquí expuestos muchas universidades, hospitales y clínicas seguramente dispondrán de una nueva perspectiva del concepto de “capital intelectual”, y ofrecerán a las personas con un alto nivel de formación un capital humano acumulado para que su productividad sea mayor. En este sentido las universidades, los hospitales y las clínicas podrán participar en el mercado con una estrategia novedosa que involucrará los productos de su propia investigación, ya sea ésta clínica, básica o transnacional, como el mayor atractivo y garantía de calidad en la prestación de los servicios de formación, docencia y asistencia médica. De ser así, no será sorpresa que en los años venideros los centros hospitalarios generen mucho más del 15% de la producción científica en el campo de salud.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dentro del contrato de prestación de servicios médicos, el consentimiento informado como elemento contractual, preserva la dignidad y demás derechos de los pacientes, más aún en el caso de la investigación y experimentación biomédica con humanos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

No todo tiempo pasado fue mejor. Descubrimientos médicos invaluables, un amplio portafolio de medicamentos y una inigualable dotación de equipos hacen que, en la actualidad, las alternativas para los pacientes sean más y mejores. La época en que los médicos se quedaban sin respuesta ante los enigmas de la salud ya es historia. Este disfrute de una medicina más certera se debe, en gran medida, a la ingeniería biomédica o bioingeniería, una ciencia que ha revolucionado al mundo. Gracias a ella, la humanidad ha sido testigo de magnánimos descubrimientos como el radio (elemento químico desarrollado por los esposos Curie), los rayos X (Roentgen) y el electrocardiógrafo (utilizado por primera vez en 1903 por Einthoven). Es tal el despliegue de tecnología que, de acuerdo con la Food and Drug Administration (FDA), organismo de los Estados Unidos que se encarga del registro, control y certificación de los dispositivos médicos, hoy en día existen más de 100 mil tipos de equipos médicos, sin olvidar que cada año se agregan a este arsenal 5 mil nuevos. Si bien este panorama luce como un triunfo para la humanidad, expertos aseguran que nada es tan perfecto como parece y que, en cambio, la tecnología médica tiene sus puntos en contra, sus mitos y realidades. Aunque no cabe la menor duda de que la tecnología médica ha contribuido a solucionar cientos de problemas de la humanidad y que ha ofrecido un sinnúmero de respuestas a las más grandes incógnitas, tampoco se puede ocultar que este mar de opciones no resulta tan benéfico, pues adquirir la tecnología adecuada, entre tanta diversidad, es un verdadero problema para los sistemas de salud, sobre todo si se tiene en cuenta que no todos los equipos son ciento por ciento seguros. El tema de los eventos adversos que presentan los dispositivos médicos no es nuevo. En 1970, Ralph Nader (activista y abogado estadounidense) denunció que alrededor de unos 1.200 norteamericanos podían ser electrocutados, cada año, por procedimientos rutinarios de diagnóstico y terapia (Nader, 1970, 176-179). Un año más tarde, el Instituto para la Investigación del Cuidado de Emergencia (ECRI, por sus siglas en inglés) emitió un reporte contundente: “una perturbadora cantidad de equipos médicos han demostrado ser inefectivos, peligrosos y de mala calidad” (Emergency Care Research Institute, 1971, 75-93). Más adelante, el Instituto Nacional de Medicina de los Estados Unidos encontró que alrededor de 44 mil a 98 mil norteamericanos mueren anualmente debido a errores médicos, situación que se da porque “el uso de tecnologías, cada vez más sofisticadas y complejas, es un factor contribuyente a la cantidad de errores encontrados” (Committee on Quality Health Care in America, 2000). Entonces, ¿esto se traduce en que la industria médica es insegura? Sí. Tal vez la menos segura de todas. Literalmente hablando, se puede decir que es mejor vivir al lado de una planta nuclear que entrar a un hospital. Una conclusión que, aunque perturbadora, es real. Así lo prueban los análisis que se hacen sobre niveles de “peligrosidad” (ver imagen) y en los cuales se registran la cantidad de vidas que se pierden por año (eje horizontal) versus la cantidad de sucesos ocurridos por instalación (eje vertical).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En una reciente decisión, la Corte Suprema de Justicia Colombiana condenó a un médico por haber prestado sus servicios profesionales a personas pertenecientes a un grupo armado al margen de la Ley. En el presente escrito revisamos ese fallo a la luz de la teoría de la imputación objetiva para diferir de la opinión del Alto Tribunal, por cuanto entendemos que el ejercicio de la medicina jamás constituirá un riesgo desaprobado y éste es un elemento necesario para que pueda hablarse de un delito.