927 resultados para Fator de necrose tumoral alfa


Relevância:

20.00% 20.00%

Publicador:

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The Tara Oceans Expedition (2009-2013) sampled the world oceans on board a 36 m long schooner, collecting environmental data and organisms from viruses to planktonic metazoans for later analyses using modern sequencing and state-of-the-art imaging technologies. Tara Oceans Data are particularly suited to study the genetic, morphological and functional diversity of plankton. The present data set provides continuous measurements made with an Aquatic Laser Fluorescence Analyzer (ALFA) (Chekalyuk et al., 2014), connected in-line to the TARA flow through system during 2013. The ALFA instrument provides dual-wavelength excitation (405 and 514 nm) of laser-stimulated emission (LSE) for spectral and temporal analysis. It offers in vivo fluorescence assessments of phytoplankton pigments, biomass, photosynthetic yield (Fv/Fm), phycobiliprotein (PBP)-containing phytoplankton groups, and chromophoric dissolved organic matter (CDOM) (Chekalyuk and Hafez, 2008; 2013A). Spectral deconvolution (SDC) is used to assess the overlapped spectral bands of aquatic fluorescence constituents and water Raman scattering (R). The Fv/Fm measurements are spectrally corrected for non-chlorophyll fluorescence background produced by CDOM and other constituents (Chekalyuk and Hafez, 2008). The sensor was cleaned weakly following the manufacturer recommended protocol.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En el mundo actual las aplicaciones basadas en sistemas biométricos, es decir, aquellas que miden las señales eléctricas de nuestro organismo, están creciendo a un gran ritmo. Todos estos sistemas incorporan sensores biomédicos, que ayudan a los usuarios a controlar mejor diferentes aspectos de la rutina diaria, como podría ser llevar un seguimiento detallado de una rutina deportiva, o de la calidad de los alimentos que ingerimos. Entre estos sistemas biométricos, los que se basan en la interpretación de las señales cerebrales, mediante ensayos de electroencefalografía o EEG están cogiendo cada vez más fuerza para el futuro, aunque están todavía en una situación bastante incipiente, debido a la elevada complejidad del cerebro humano, muy desconocido para los científicos hasta el siglo XXI. Por estas razones, los dispositivos que utilizan la interfaz cerebro-máquina, también conocida como BCI (Brain Computer Interface), están cogiendo cada vez más popularidad. El funcionamiento de un sistema BCI consiste en la captación de las ondas cerebrales de un sujeto para después procesarlas e intentar obtener una representación de una acción o de un pensamiento del individuo. Estos pensamientos, correctamente interpretados, son posteriormente usados para llevar a cabo una acción. Ejemplos de aplicación de sistemas BCI podrían ser mover el motor de una silla de ruedas eléctrica cuando el sujeto realice, por ejemplo, la acción de cerrar un puño, o abrir la cerradura de tu propia casa usando un patrón cerebral propio. Los sistemas de procesamiento de datos están evolucionando muy rápido con el paso del tiempo. Los principales motivos son la alta velocidad de procesamiento y el bajo consumo energético de las FPGAs (Field Programmable Gate Array). Además, las FPGAs cuentan con una arquitectura reconfigurable, lo que las hace más versátiles y potentes que otras unidades de procesamiento como las CPUs o las GPUs.En el CEI (Centro de Electrónica Industrial), donde se lleva a cabo este TFG, se dispone de experiencia en el diseño de sistemas reconfigurables en FPGAs. Este TFG es el segundo de una línea de proyectos en la cual se busca obtener un sistema capaz de procesar correctamente señales cerebrales, para llegar a un patrón común que nos permita actuar en consecuencia. Más concretamente, se busca detectar cuando una persona está quedándose dormida a través de la captación de unas ondas cerebrales, conocidas como ondas alfa, cuya frecuencia está acotada entre los 8 y los 13 Hz. Estas ondas, que aparecen cuando cerramos los ojos y dejamos la mente en blanco, representan un estado de relajación mental. Por tanto, este proyecto comienza como inicio de un sistema global de BCI, el cual servirá como primera toma de contacto con el procesamiento de las ondas cerebrales, para el posterior uso de hardware reconfigurable sobre el cual se implementarán los algoritmos evolutivos. Por ello se vuelve necesario desarrollar un sistema de procesamiento de datos en una FPGA. Estos datos se procesan siguiendo la metodología de procesamiento digital de señales, y en este caso se realiza un análisis de la frecuencia utilizando la transformada rápida de Fourier, o FFT. Una vez desarrollado el sistema de procesamiento de los datos, se integra con otro sistema que se encarga de captar los datos recogidos por un ADC (Analog to Digital Converter), conocido como ADS1299. Este ADC está especialmente diseñado para captar potenciales del cerebro humano. De esta forma, el sistema final capta los datos mediante el ADS1299, y los envía a la FPGA que se encarga de procesarlos. La interpretación es realizada por los usuarios que analizan posteriormente los datos procesados. Para el desarrollo del sistema de procesamiento de los datos, se dispone primariamente de dos plataformas de estudio, a partir de las cuales se captarán los datos para después realizar el procesamiento: 1. La primera consiste en una herramienta comercial desarrollada y distribuida por OpenBCI, proyecto que se dedica a la venta de hardware para la realización de EEG, así como otros ensayos. Esta herramienta está formada por un microprocesador, un módulo de memoria SD para el almacenamiento de datos, y un módulo de comunicación inalámbrica que transmite los datos por Bluetooth. Además cuenta con el mencionado ADC ADS1299. Esta plataforma ofrece una interfaz gráfica que sirve para realizar la investigación previa al diseño del sistema de procesamiento, al permitir tener una primera toma de contacto con el sistema. 2. La segunda plataforma consiste en un kit de evaluación para el ADS1299, desde la cual se pueden acceder a los diferentes puertos de control a través de los pines de comunicación del ADC. Esta plataforma se conectará con la FPGA en el sistema integrado. Para entender cómo funcionan las ondas más simples del cerebro, así como saber cuáles son los requisitos mínimos en el análisis de ondas EEG se realizaron diferentes consultas con el Dr Ceferino Maestu, neurofisiólogo del Centro de Tecnología Biomédica (CTB) de la UPM. Él se encargó de introducirnos en los distintos procedimientos en el análisis de ondas en electroencefalogramas, así como la forma en que se deben de colocar los electrodos en el cráneo. Para terminar con la investigación previa, se realiza en MATLAB un primer modelo de procesamiento de los datos. Una característica muy importante de las ondas cerebrales es la aleatoriedad de las mismas, de forma que el análisis en el dominio del tiempo se vuelve muy complejo. Por ello, el paso más importante en el procesamiento de los datos es el paso del dominio temporal al dominio de la frecuencia, mediante la aplicación de la transformada rápida de Fourier o FFT (Fast Fourier Transform), donde se pueden analizar con mayor precisión los datos recogidos. El modelo desarrollado en MATLAB se utiliza para obtener los primeros resultados del sistema de procesamiento, el cual sigue los siguientes pasos. 1. Se captan los datos desde los electrodos y se escriben en una tabla de datos. 2. Se leen los datos de la tabla. 3. Se elige el tamaño temporal de la muestra a procesar. 4. Se aplica una ventana para evitar las discontinuidades al principio y al final del bloque analizado. 5. Se completa la muestra a convertir con con zero-padding en el dominio del tiempo. 6. Se aplica la FFT al bloque analizado con ventana y zero-padding. 7. Los resultados se llevan a una gráfica para ser analizados. Llegados a este punto, se observa que la captación de ondas alfas resulta muy viable. Aunque es cierto que se presentan ciertos problemas a la hora de interpretar los datos debido a la baja resolución temporal de la plataforma de OpenBCI, este es un problema que se soluciona en el modelo desarrollado, al permitir el kit de evaluación (sistema de captación de datos) actuar sobre la velocidad de captación de los datos, es decir la frecuencia de muestreo, lo que afectará directamente a esta precisión. Una vez llevado a cabo el primer procesamiento y su posterior análisis de los resultados obtenidos, se procede a realizar un modelo en Hardware que siga los mismos pasos que el desarrollado en MATLAB, en la medida que esto sea útil y viable. Para ello se utiliza el programa XPS (Xilinx Platform Studio) contenido en la herramienta EDK (Embedded Development Kit), que nos permite diseñar un sistema embebido. Este sistema cuenta con: Un microprocesador de tipo soft-core llamado MicroBlaze, que se encarga de gestionar y controlar todo el sistema; Un bloque FFT que se encarga de realizar la transformada rápida Fourier; Cuatro bloques de memoria BRAM, donde se almacenan los datos de entrada y salida del bloque FFT y un multiplicador para aplicar la ventana a los datos de entrada al bloque FFT; Un bus PLB, que consiste en un bus de control que se encarga de comunicar el MicroBlaze con los diferentes elementos del sistema. Tras el diseño Hardware se procede al diseño Software utilizando la herramienta SDK(Software Development Kit).También en esta etapa se integra el sistema de captación de datos, el cual se controla mayoritariamente desde el MicroBlaze. Por tanto, desde este entorno se programa el MicroBlaze para gestionar el Hardware que se ha generado. A través del Software se gestiona la comunicación entre ambos sistemas, el de captación y el de procesamiento de los datos. También se realiza la carga de los datos de la ventana a aplicar en la memoria correspondiente. En las primeras etapas de desarrollo del sistema, se comienza con el testeo del bloque FFT, para poder comprobar el funcionamiento del mismo en Hardware. Para este primer ensayo, se carga en la BRAM los datos de entrada al bloque FFT y en otra BRAM los datos de la ventana aplicada. Los datos procesados saldrán a dos BRAM, una para almacenar los valores reales de la transformada y otra para los imaginarios. Tras comprobar el correcto funcionamiento del bloque FFT, se integra junto al sistema de adquisición de datos. Posteriormente se procede a realizar un ensayo de EEG real, para captar ondas alfa. Por otro lado, y para validar el uso de las FPGAs como unidades ideales de procesamiento, se realiza una medición del tiempo que tarda el bloque FFT en realizar la transformada. Este tiempo se compara con el tiempo que tarda MATLAB en realizar la misma transformada a los mismos datos. Esto significa que el sistema desarrollado en Hardware realiza la transformada rápida de Fourier 27 veces más rápido que lo que tarda MATLAB, por lo que se puede ver aquí la gran ventaja competitiva del Hardware en lo que a tiempos de ejecución se refiere. En lo que al aspecto didáctico se refiere, este TFG engloba diferentes campos. En el campo de la electrónica:  Se han mejorado los conocimientos en MATLAB, así como diferentes herramientas que ofrece como FDATool (Filter Design Analysis Tool).  Se han adquirido conocimientos de técnicas de procesado de señal, y en particular, de análisis espectral.  Se han mejorado los conocimientos en VHDL, así como su uso en el entorno ISE de Xilinx.  Se han reforzado los conocimientos en C mediante la programación del MicroBlaze para el control del sistema.  Se ha aprendido a crear sistemas embebidos usando el entorno de desarrollo de Xilinx usando la herramienta EDK (Embedded Development Kit). En el campo de la neurología, se ha aprendido a realizar ensayos EEG, así como a analizar e interpretar los resultados mostrados en el mismo. En cuanto al impacto social, los sistemas BCI afectan a muchos sectores, donde destaca el volumen de personas con discapacidades físicas, para los cuales, este sistema implica una oportunidad de aumentar su autonomía en el día a día. También otro sector importante es el sector de la investigación médica, donde los sistemas BCIs son aplicables en muchas aplicaciones como, por ejemplo, la detección y estudio de enfermedades cognitivas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A proposta desta pesquisa é enfocar a história da Igreja Presbiteriana do Brasil no período de 1910 a 1966, a partir de uma análise histórica institucional, com vistas à compreensão do isolamento ecumênico da Igreja Presbiteriana do Brasil. A partir da análise de documentos pertencentes ao arquivo da Igreja Presbiteriana do Brasil, procurou-se proceder o levantamento da memória coletiva e individual dos grupos presbiterianos, conservador e liberal, na tentativa de revelar os acordos silenciosos ? acordos que se manifestam, de forma velada, no plano do discurso ? que expressam a subjetividade objetividade dos sujeitos envolvidos. Essa perspectiva de análise justifica a opção pelo tema "Os acordos silenciosos como fator determinante do isolamento ecumênico da Igreja Presbiteriana do Brasil (1910 1966)", uma vez que a pesquisa empreendida considera a espessura histórica, social, teórica e política de nosso objeto de estudo, necessária e fundamental para uma melhor compreensão desses acordos silenciosos. Nesse sentido, propomo-nos aproximar a realidade pensada da vivida, interpretar a polissemia de significados encontrados nos documentos e identificar a multiplicidade de pensamentos manifestos nos textos analisados, tomando o método histórico como procedimento de investigação. Os resultados deste trabalho acadêmico reforçam o papel ideológico da Igreja e sua doutrina como força psicológica e social que, ao lado do poder econômico, político e militar, forma o Poder Nacional, estabelece acordos internos e, quando alguém se declara contra esses acordos, as tensões já existentes, agravam-se. Na realização deste trabalho, pretende-se oferecer dados que propiciem a reflexão e o redimensionamento da leitura dos fatos ocorridos nesse período da história da Igreja Presbiteriana do Brasil, sem recairmos em posições reducionistas e lesivas para a autônoma e adequada interpretação da realidade analisada.(AU)

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A proposta desta pesquisa é enfocar a história da Igreja Presbiteriana do Brasil no período de 1910 a 1966, a partir de uma análise histórica institucional, com vistas à compreensão do isolamento ecumênico da Igreja Presbiteriana do Brasil. A partir da análise de documentos pertencentes ao arquivo da Igreja Presbiteriana do Brasil, procurou-se proceder o levantamento da memória coletiva e individual dos grupos presbiterianos, conservador e liberal, na tentativa de revelar os acordos silenciosos ? acordos que se manifestam, de forma velada, no plano do discurso ? que expressam a subjetividade objetividade dos sujeitos envolvidos. Essa perspectiva de análise justifica a opção pelo tema "Os acordos silenciosos como fator determinante do isolamento ecumênico da Igreja Presbiteriana do Brasil (1910 1966)", uma vez que a pesquisa empreendida considera a espessura histórica, social, teórica e política de nosso objeto de estudo, necessária e fundamental para uma melhor compreensão desses acordos silenciosos. Nesse sentido, propomo-nos aproximar a realidade pensada da vivida, interpretar a polissemia de significados encontrados nos documentos e identificar a multiplicidade de pensamentos manifestos nos textos analisados, tomando o método histórico como procedimento de investigação. Os resultados deste trabalho acadêmico reforçam o papel ideológico da Igreja e sua doutrina como força psicológica e social que, ao lado do poder econômico, político e militar, forma o Poder Nacional, estabelece acordos internos e, quando alguém se declara contra esses acordos, as tensões já existentes, agravam-se. Na realização deste trabalho, pretende-se oferecer dados que propiciem a reflexão e o redimensionamento da leitura dos fatos ocorridos nesse período da história da Igreja Presbiteriana do Brasil, sem recairmos em posições reducionistas e lesivas para a autônoma e adequada interpretação da realidade analisada.(AU)

Relevância:

20.00% 20.00%

Publicador:

Relevância:

20.00% 20.00%

Publicador: