7 resultados para Procesado de señales

em Universidade Complutense de Madrid


Relevância:

20.00% 20.00%

Publicador:

Resumo:

La clasificación en subtipos moleculares de los aislados de L. monocytogenes procedentes de productos cárnicos y del ambiente de las plantas de procesado donde se elaboran, habitualmente muestra la presencia de un reducido número de cepas y la persistencia durante largos periodos de tiempo de cepas específicas que sobreviven a la limpieza y la desinfección. Entre los mecanismos que facilitan la supervivencia de L. monocytogenes en el ambiente de las plantas de procesado de alimentos se incluyen la formación de biofilm, la adquisición de resistencia a antimicrobianos y la resistencia al estrés. El objetivo inicial de esta tesis fue analizar los diferentes subtipos de L. monocytogenes que se encontraban contaminando el ambiente y los productos de una planta de sacrificio y elaboración de productos de cerdo ibérico (Planta A) durante un periodo de tres años, con el fin de identificar las rutas de contaminación y posibles patrones de persistencia. Mediante electroforesis en gel en campo pulsante (PFGE) se identificaron 29 pulsotipos diferentes, ocho de los cuales se consideraron persistentes. La distribución en el ambiente y en los productos de tres pulsotipos predominantes generó patrones de contaminación específicos de cada uno de ellos, que mostraron respuestas diferentes ante las medidas correctoras que se adoptaron en la planta. Estos resultados destacan la importancia de la caracterización molecular de los subtipos de L. monocytogenes para identificar las rutas de contaminación específicas de la planta, que permitieron mejorar las estrategias de control de la contaminación...

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabajo tiene como meta el desarrollo de un sistema de neurorrehabilitación mediante realidad virtual para pacientes con problemas motores en las extremidades superiores provocados por un daño cerebral. Para entender y enfrentarse de manera correcta al problema, se han revisado todos los aspectos concernientes al daño cerebral y déficits motores derivados así como las terapias empleadas para su rehabilitación, como las que utilizan tecnologías asistidas como la realidad virtual. Se han expuesto las ventajas que han llevado a utilizar esta terapia en el proyecto y se han mencionado algunos estudios de investigación previos y con resultados favorables. Por último, se ha hecho hincapié en las novedades (embodiment y neuronas espejo) que aporta este proyecto con las que se podría acelerar la rehabilitación de los pacientes incidiendo en la plasticidad cerebral. En lo que se refiere al desarrollo del entorno, se ha utilizado el motor de videojuegos Unity 3D, con el que se ha integrado el dispositivo Myo Armband, para capturar el movimiento, y las gafas de realidad virtual Oculus Rift DK2. Durante la terapia, el paciente tiene que superar una serie de niveles definidos por el terapeuta y, para ello, debe realizar un alcance y tocar un botón un número de veces por cada nivel. En cada nivel, el esfuerzo que tiene que realizar el paciente es distinto, dependiendo de la distancia a la que se encuentre el botón (relativa al calibrado previo del paciente) e igualmente, está definido por el terapeuta. También se lleva a cabo un registro de las aceleraciones y del porcentaje de acierto del paciente en un fichero, para llevar un control de su progreso. Como conclusión, cabe mencionar que el entorno desarrollado es adaptable a las posibilidades de cada paciente, permitiendo una recuperación óptima. Se trata de un sistema de bajo coste, intuitivo y que lleva a cabo un registro de datos de la actividad del paciente, lo que posibilita, como trabajo futuro, el control de forma remota por parte del terapeuta. Todos estos aspectos dejan abierta la posibilidad de que el paciente lo utilice a domicilio, con las ventajas que conlleva. Del mismo modo, el sistema se podría adaptar fácilmente para la rehabilitación de las extremidades inferiores. Tras su análisis, los investigadores expertos en la materia del Consejo Superior de Investigaciones Científicas afirman que el sistema satisface con creces su propósito. Con todo esto, se concluye que este entorno tiene un excelente presente y un futuro muy prometedor.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En la actualidad se dispone de intervenciones efectivas para el tratamiento de trastornos de ansiedad y problemas relacionados con miedos condicionados, en especial procedimientos de exposición (Norton & Price, 2007). No obstante, los mecanismos responsables de la reducción del miedo no son aún claros. Esto implica que existe información limitada respecto a las condiciones que favorecen o que interfieren con los procedimientos de exposición. Probablemente, lo anterior se debe a la distancia que existe entre la investigación básica y la investigación aplicada. Particularmente, la investigación básica puede informar cuáles son estas condiciones. En el momento en que un individuo se enfrenta a una situación que provoca temor, se observa una tendencia a presentar conductas de escape. Sin embargo, cuando no es posible escapar (por ejemplo, durante un ataque de pánico), es frecuente observar que los individuos recurren a conductas de seguridad. Un ejemplo de estas conductas es acudir a una “persona de seguridad”. Las conductas de seguridad facilitan la aparición deseñales de seguridad”, que a su vez reducen el miedo. La sola presencia de la “persona de seguridad” puede hacer que el miedo que experimenta el individuo se reduzca. También es posible que una afirmación como “no hay peligro, todo está bien” (proveniente de la “persona de seguridad”), sea suficiente para que el miedo disminuya. En el ejemplo, la conducta de seguridad consiste en llamar a la “persona de seguridad”, mientras que recibir la información sobre la ausencia de peligro, constituye la “señal de seguridad”. La diferencia entre estos dos conceptos, consiste en que las “conductas de seguridad” implican procesos instrumentales, es decir relaciones entre una conducta y una consecuencia. Por otro lado, las “señales de seguridad” involucran relaciones entre estímulos (estímulo condicionado y estímulo incondicionado) es decir, procesos pavlovianos...

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En esta memoria se ha implementado una etapa de preprocesado que sirva como primera fase en el proceso de codificación dedeo. Esta etapa integra dos variedades del filtro de mediana (3×3 y 5×5) y un operador. Dicho operador lleva a cabo el cálculo del gradiente de los píxeles que conforman una imagen o fotograma con objeto de filtrar después aquellos que están por debajo de un determinado valor (threshold). El cálculo de dicho threshold se realiza de manera empírica mediante dos procesos distintos. En el primero se obtienen valores de luminancia y crominancia de píxeles que integran bordes para encontrar aquel que tenga el valor mínimo, mientras que en el segundo se calcula la tasa de píxeles que forman parte de bordes. Una vez se ha realizado el cálculo anterior, se han utilizado distintos valores de threshold, distintas variedades de filtro de mediana y distintos valores de QP (calidad) con objeto de parametrizar las codificaciones que hacen uso de esta nueva etapa. Posteriormente a dichas codificaciones, se han obtenido los tamaños de los bitstreams de salida y se ha evaluado la calidad de los vídeos decodificados o reconstruidos mediante dos métricas objetivas: PSNR y SSIM. Las codificaciones que no utilizan etapa de preprocesado también han sido evaluadas mediante dichas métricas y comparadas con aquellas que sí integran dicha etapa. Los resultados obtenidos dejan patente el compromiso existente entre tamaño de bitstream y calidad, siendo más representativos los de la métrica SSIM, estando esta última más relacionada con la percepción de la imagen por parte del HVS (sistema visual humano). Como resultado, se obtiene para esta métrica tasas de compresión mayores que las alcanzadas sin preprocesamiento, con pérdidas de calidad prácticamente inapreciables.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las expresiones faciales de la emoción constituyen estímulos altamente relevantes en la interacción humana, dado que son señales comunicativas que nos permiten inferir el estado interno de otras personas. La función comunicativa de las expresiones faciales de la emoción ha sido objeto de gran interés y existe abundante literatura sobre el tema. Muchos autores han investigado los mecanismos involucrados en la percepción y decodificación de las expresiones faciales desde distintas perspectivas. En estudios realizados con medidas de la actividad cerebral de alta resolución temporal (electroencefalografía-EEG- y magnetoencefalografía-MEG) que se centran en el curso temporal del procesamiento perceptivo de las expresiones faciales de la emoción se ha encontrado una sensibilidad temprana a diversas emociones. Por ejemplo, el componente N170 ha mostrado sensibilidad diferenciada a las expresiones faciales de la emoción (ver revisión de Hinojosa, Mercado & Carretié, 2015). Un procedimiento utilizado habitualmente para investigar el procesamiento afectivo es el paradigma de priming afectivo, en el que primes y targets emocionales se presentan secuencialmente. La técnica de potenciales evocados (event-related potentials-ERP) se ha empleado habitualmente para explorar estos procesos y los estudios se han centrado en dos componentes principales: el N400 y el Potencial Tardío Positivo (Late Positive Potential-LPP). Se ha encontrado que el N400 es altamente sensible a la incongruencia semántica, mientras que su sensibilidad a la incongruencia afectiva no está tan clara. Por el contrario, se ha observado modulación del LPP debida a la incongruencia afectiva en ausencia de efectos en N400 (Herring et al., 2011)...

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La ecografía es hoy en día uno de los métodos de visualización más populares para examinar el interior de cuerpos opacos. Su aplicación es especialmente significativa tanto en el campo del diagnóstico médico como en las aplicaciones de evaluación no destructiva en el ámbito industrial, donde se evalúa la integridad de un componente o una estructura. El desarrollo de sistemas ecográficos de alta calidad y con buenas prestaciones se basa en el empleo de sistemas multisensoriales conocidos como arrays que pueden estar compuestos por varias decenas de elementos. El desarrollo de estos dispositivos tiene asociada una elevada complejidad, tanto por el número de sensores y la electrónica necesaria para la adquisición paralela de señales, como por la etapa de procesamiento de los datos adquiridos que debe operar en tiempo real. Esta etapa de procesamiento de señal trabaja con un elevado flujo de datos en paralelo y desarrolla, además de la composición de imagen, otras sofisticadas técnicas de medidas sobre los datos (medida de elasticidad, flujo, etc). En este sentido, el desarrollo de nuevos sistemas de imagen con mayores prestaciones (resolución, rango dinámico, imagen 3D, etc) está fuertemente limitado por el número de canales en la apertura del array. Mientras algunos estudios se han centrado en la reducción activa de sensores (sparse arrays como ejemplo), otros se han centrado en analizar diferentes estrategias de adquisiciónn que, operando con un número reducido de canales electrónicos en paralelo, sean capaz por multiplexación emular el funcionamiento de una apertura plena. A estas últimas técnicas se las agrupa mediante el concepto de Técnicas de Apertura Sintética (SAFT). Su interés radica en que no solo son capaces de reducir los requerimientos hardware del sistema (bajo consumo, portabilidad, coste, etc) sino que además permiten dentro de cierto compromiso la mejora de la calidad de imagen respecto a los sistemas convencionales...

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Hoy día vivimos en la sociedad de la tecnología, en la que la mayoría de las cosas cuentan con uno o varios procesadores y es necesario realizar cómputos para hacer más agradable la vida del ser humano. Esta necesidad nos ha brindado la posibilidad de asistir en la historia a un acontecimiento sin precedentes, en el que la cantidad de transistores era duplicada cada dos años, y con ello, mejorada la velocidad de cómputo (Moore, 1965). Tal acontecimiento nos ha llevado a la situación actual, en la que encontramos placas con la capacidad de los computadores de hace años, consumiendo muchísima menos energía y ocupando muchísimo menos espacio, aunque tales prestaciones quedan un poco escasas para lo que se requiere hoy día. De ahí surge la idea de comunicar placas que se complementan en aspectos en las que ambas se ven limitadas. En nuestro proyecto desarrollaremos una interfaz s oftware/hardware para facilitar la comunicación entre dos placas con distintas prestaciones, a saber, una Raspberry Pi modelo A 2012 y una FPGA Spartan XSA3S1000 con placa extendida XStend Board V3.0. Dicha comunicación se basará en el envío y recepción de bits en serie, y será la Raspberry Pi quien marque las fases de la comunicación. El proyecto se divide en dos partes: La primera parte consiste en el desarrollo de un módulo para el kernel de Linux, que se encarga de gestionar las entradas y salidas de datos de la Raspberry Pi cuando se realizan las pertinentes llamadas de write o read. Mediante el control de los GPIO y la gestión de las distintas señales, se realiza la primera fase de la comunicación. La segunda parte consiste en el desarrollo de un diseño en VHDL para la FPGA, mediante el cual se pueda gestionar la recepción, cómputo y posterior envío de bits, de forma que la Raspberry Pi pueda disponer de los datos una vez hayan sido calculados. Ambas partes han sido desarrolladas bajo licencias libres (GPL) para que estén disponibles a cualquier persona interesada en el desarrollo y que deseen su reutilización.