848 resultados para Sistema respiratório humano
Resumo:
Experimental evidence and epidemiological studies indicate that exposure to endotoxin lipopolysaccharide (eLPS) or other TLR agonists prevent asthma. We have previously shown in the OVA-model of asthma that eLPS administration during alum-based allergen sensitization blocked the development of lung TH2 immune responses via MyD88 pathway and IL-12/IFN-γ axis. In the present work we determined the effect of eLPS exposure during sensitization to a natural airborne allergen extract derived from the house dust mite Blomia tropicalis (Bt). Mice were subcutaneously sensitized with Bt allergens co-adsorbed onto alum with or without eLPS and challenged twice intranasally with Bt. Cellular and molecular parameters of allergic lung inflammation were evaluated 24 h after the last Bt challenge. Exposure to eLPS but not to ultrapure LPS (upLPS) preparation during sensitization to Bt allergens decreased the influx of eosinophils and increased the influx of neutrophils to the airways. Inhibition of airway eosinophilia was not observed in IFN-γdeficient mice while airway neutrophilia was not observed in IL-17RA-deficient mice as well in mice lacking MyD88, CD14, TLR4 and, surprisingly, TLR2 molecules. Notably, exposure to a synthetic TLR2 agonist (PamCSK4) also induced airway neutrophilia that was dependent on TLR2 and TLR4 molecules. In the OVA model, exposure to eLPS or PamCSK4 suppressed OVA-induced airway inflammation. Our results suggest that B. tropicalis allergens engage TLR4 that potentiates TLR2 signaling. This dual TLR activation during sensitization results in airway neutrophilic inflammation associated with increased frequency of lung TH17 cells. Our work highlight the complex interplay between bacterial products, house dust mite allergens and TLR signaling in the induction of different phenotypes of airway inflammation.
Resumo:
El desarrollo histórico de la Psicología como disciplina científica puede ser interpretado, siguiendo a Manuel de Vega (1998), a la luz de los aportes epistemológicos de T. Kuhn. Este físico y filósofo sostiene que la historia de las disciplinas científicas está compuesta por diversos períodos, a saber, el período de ciencia pre-paradigmática, de ciencia normal, crisis y nueva ciencia normal. Kuhn presupone la existencia de un paradigma, el cual durante el período de ciencia normal dominará y determinará, entre otras cosas, cuáles son los problemas, las técnicas y soluciones que serán consideradas como válidas dentro de ese período. Diversos autores han sostenido que el conductismo fue el paradigma dominante en psicología durante la primera mitad del siglo XX pero, tras su crisis, hoy en día el nuevo paradigma dominante es el cognitivo. Este nuevo paradigma se basa en la analogía de la mente como un ordenador y presenta dos versiones. Si se interpreta la analogía en un sentido débil, la similitud funcional entre la mente y el ordenador no pierde de vista la peculiaridad del funcionamiento de la mente humana; en este sentido, debido a que la perspectiva psicológica continíoa presente en las investigaciones y que las mismas son consideradas como un instrumento para el estudio de la mente, la versión débil ha dado lugar a los desarrollos de la Psicología Cognitiva. En cambio, quienes han interpretado la analogía en un sentido fuerte dieron lugar a los desarrollos de la Ciencia Cognitiva (i). Su tarea primordial consiste en la construcción de Sistemas de Inteligencia Artificial que, en tanto simulan los comportamientos inteligentes humanos, tienen estados cognitivos. Dado que la ciencia cognitiva ha sido desarrollada en su mayoría por programadores, este tipo de investigación parte del supuesto que no es necesario saber cómo funciona el cerebro para aportar información relevante sobre el funcionamiento del sistema cognitivo humano (Searle, 1981, pág. 467). Uno de los problemas clásicos que se ha planteado dentro del paradigma cognitivo se centra en la pregunta de si es posible que las máquinas piensen. Varios científicos y filósofos han dado diversas respuestas pero lo cierto es que, a pesar de esta diversidad, a todos les resulta prácticamente inevitable hacer algíon tipo de referencia a la propuesta de Turing. Este pensador ha formulado un test para las máquinas que, de superarlo, sería preciso atribuirles la capacidad de pensar. En este trabajo, en primera instancia, caracterizo cuál es la propuesta de Turing que ha tomado el programa de Inteligencia Artificial (IA), en sentido fuerte, para determinar si las máquinas pueden pensar. Luego desarrollo dos objeciones clásicas que consisten en formular cuáles son las imposibilidades de las máquinas y el problema del marco, y propongo la existencia de un núcleo común entre ambas. En segunda instancia, con el objetivo de complejizar estas objeciones, tomo en consideración aportes provenientes de las teorías de las emociones contemporáneas, en particular considero aportes de las neurociencias cognitivas, y defiendo la tesis que afirma que las emociones son importantes para el desarrollo de la inteligencia humana. Si mi argumentación en esta segunda parte es correcta, entonces habré mostrado que la falencia del test de Turing consiste en suponer un concepto vetusto de inteligencia humana
Resumo:
El desarrollo histórico de la Psicología como disciplina científica puede ser interpretado, siguiendo a Manuel de Vega (1998), a la luz de los aportes epistemológicos de T. Kuhn. Este físico y filósofo sostiene que la historia de las disciplinas científicas está compuesta por diversos períodos, a saber, el período de ciencia pre-paradigmática, de ciencia normal, crisis y nueva ciencia normal. Kuhn presupone la existencia de un paradigma, el cual durante el período de ciencia normal dominará y determinará, entre otras cosas, cuáles son los problemas, las técnicas y soluciones que serán consideradas como válidas dentro de ese período. Diversos autores han sostenido que el conductismo fue el paradigma dominante en psicología durante la primera mitad del siglo XX pero, tras su crisis, hoy en día el nuevo paradigma dominante es el cognitivo. Este nuevo paradigma se basa en la analogía de la mente como un ordenador y presenta dos versiones. Si se interpreta la analogía en un sentido débil, la similitud funcional entre la mente y el ordenador no pierde de vista la peculiaridad del funcionamiento de la mente humana; en este sentido, debido a que la perspectiva psicológica continíoa presente en las investigaciones y que las mismas son consideradas como un instrumento para el estudio de la mente, la versión débil ha dado lugar a los desarrollos de la Psicología Cognitiva. En cambio, quienes han interpretado la analogía en un sentido fuerte dieron lugar a los desarrollos de la Ciencia Cognitiva (i). Su tarea primordial consiste en la construcción de Sistemas de Inteligencia Artificial que, en tanto simulan los comportamientos inteligentes humanos, tienen estados cognitivos. Dado que la ciencia cognitiva ha sido desarrollada en su mayoría por programadores, este tipo de investigación parte del supuesto que no es necesario saber cómo funciona el cerebro para aportar información relevante sobre el funcionamiento del sistema cognitivo humano (Searle, 1981, pág. 467). Uno de los problemas clásicos que se ha planteado dentro del paradigma cognitivo se centra en la pregunta de si es posible que las máquinas piensen. Varios científicos y filósofos han dado diversas respuestas pero lo cierto es que, a pesar de esta diversidad, a todos les resulta prácticamente inevitable hacer algíon tipo de referencia a la propuesta de Turing. Este pensador ha formulado un test para las máquinas que, de superarlo, sería preciso atribuirles la capacidad de pensar. En este trabajo, en primera instancia, caracterizo cuál es la propuesta de Turing que ha tomado el programa de Inteligencia Artificial (IA), en sentido fuerte, para determinar si las máquinas pueden pensar. Luego desarrollo dos objeciones clásicas que consisten en formular cuáles son las imposibilidades de las máquinas y el problema del marco, y propongo la existencia de un núcleo común entre ambas. En segunda instancia, con el objetivo de complejizar estas objeciones, tomo en consideración aportes provenientes de las teorías de las emociones contemporáneas, en particular considero aportes de las neurociencias cognitivas, y defiendo la tesis que afirma que las emociones son importantes para el desarrollo de la inteligencia humana. Si mi argumentación en esta segunda parte es correcta, entonces habré mostrado que la falencia del test de Turing consiste en suponer un concepto vetusto de inteligencia humana
Resumo:
El desarrollo histórico de la Psicología como disciplina científica puede ser interpretado, siguiendo a Manuel de Vega (1998), a la luz de los aportes epistemológicos de T. Kuhn. Este físico y filósofo sostiene que la historia de las disciplinas científicas está compuesta por diversos períodos, a saber, el período de ciencia pre-paradigmática, de ciencia normal, crisis y nueva ciencia normal. Kuhn presupone la existencia de un paradigma, el cual durante el período de ciencia normal dominará y determinará, entre otras cosas, cuáles son los problemas, las técnicas y soluciones que serán consideradas como válidas dentro de ese período. Diversos autores han sostenido que el conductismo fue el paradigma dominante en psicología durante la primera mitad del siglo XX pero, tras su crisis, hoy en día el nuevo paradigma dominante es el cognitivo. Este nuevo paradigma se basa en la analogía de la mente como un ordenador y presenta dos versiones. Si se interpreta la analogía en un sentido débil, la similitud funcional entre la mente y el ordenador no pierde de vista la peculiaridad del funcionamiento de la mente humana; en este sentido, debido a que la perspectiva psicológica continíoa presente en las investigaciones y que las mismas son consideradas como un instrumento para el estudio de la mente, la versión débil ha dado lugar a los desarrollos de la Psicología Cognitiva. En cambio, quienes han interpretado la analogía en un sentido fuerte dieron lugar a los desarrollos de la Ciencia Cognitiva (i). Su tarea primordial consiste en la construcción de Sistemas de Inteligencia Artificial que, en tanto simulan los comportamientos inteligentes humanos, tienen estados cognitivos. Dado que la ciencia cognitiva ha sido desarrollada en su mayoría por programadores, este tipo de investigación parte del supuesto que no es necesario saber cómo funciona el cerebro para aportar información relevante sobre el funcionamiento del sistema cognitivo humano (Searle, 1981, pág. 467). Uno de los problemas clásicos que se ha planteado dentro del paradigma cognitivo se centra en la pregunta de si es posible que las máquinas piensen. Varios científicos y filósofos han dado diversas respuestas pero lo cierto es que, a pesar de esta diversidad, a todos les resulta prácticamente inevitable hacer algíon tipo de referencia a la propuesta de Turing. Este pensador ha formulado un test para las máquinas que, de superarlo, sería preciso atribuirles la capacidad de pensar. En este trabajo, en primera instancia, caracterizo cuál es la propuesta de Turing que ha tomado el programa de Inteligencia Artificial (IA), en sentido fuerte, para determinar si las máquinas pueden pensar. Luego desarrollo dos objeciones clásicas que consisten en formular cuáles son las imposibilidades de las máquinas y el problema del marco, y propongo la existencia de un núcleo común entre ambas. En segunda instancia, con el objetivo de complejizar estas objeciones, tomo en consideración aportes provenientes de las teorías de las emociones contemporáneas, en particular considero aportes de las neurociencias cognitivas, y defiendo la tesis que afirma que las emociones son importantes para el desarrollo de la inteligencia humana. Si mi argumentación en esta segunda parte es correcta, entonces habré mostrado que la falencia del test de Turing consiste en suponer un concepto vetusto de inteligencia humana
Resumo:
Independientemente de sus implicaciones en las IDE, los mapas son y se han utilizado para presentar la información existente sobre la Tierra. No están exentos de errores ya que, debido a una mala redacción gráfica, pueden conducir a una mala legibilidad de la información o incluso a una idea equivocada de la realidad que muestran. Los mapas son modelos de la realidad y para eso se utilizan artificios como (a) las escalas, que obligan a reducir el tamaño y simplificar la información, (b) las proyecciones cartográficas que permiten representar la esfericidad de la Tierra sobre un plano, (c) las cartografías temáticas que representan aspectos concretos de la superficie de la Tierra (edafología, climatología, población, etc.) y (d) el lenguaje cartográfico con sus reglas de redacción, sintácticas, ortográficas y semánticas. Este último aspecto es clave para la producción de mapas que cumplan el objetivo de presentar adecuadamente la información geográfica, al que se dedica este capítulo. La redacción en base a sistemas de símbolos dispone de unas normas relacionadas con las capacidades perceptivas del sistema visual humano que no deben infringirse. El conocimiento de las variables gráficas que pueden aplicarse a la simbología (la forma, el color, el tamaño, etc.); las ventajas y dificultades que tienen cada una de esas variables para la percepción; su aplicación a los diferentes fenómenos, ya sean puntuales lineales o superficiales; la forma en la que se haya adquirido la información que los define (información cualitativa, ordenada o cuantitativa), permitirá garantizar que la información gráfica enviada al lector no sólo sea entendida sino que sea correctamente comprendida. Vulnerar el uso de las variables visuales, desconocer el funcionamiento de la percepción respecto a los estímulos visuales y no tener en cuenta el tipo de información que define a los fenómenos, crea errores como se muestra en el presente capítulo a través de unos ejemplos finales.
Resumo:
Métrica de calidad de video de alta definición construida a partir de ratios de referencia completa. La medida de calidad de video, en inglés Visual Quality Assessment (VQA), es uno de los mayores retos por solucionar en el entorno multimedia. La calidad de vídeo tiene un impacto altísimo en la percepción del usuario final (consumidor) de los servicios sustentados en la provisión de contenidos multimedia y, por tanto, factor clave en la valoración del nuevo paradigma denominado Calidad de la Experiencia, en inglés Quality of Experience (QoE). Los modelos de medida de calidad de vídeo se pueden agrupar en varias ramas según la base técnica que sustenta el sistema de medida, destacando en importancia los que emplean modelos psicovisuales orientados a reproducir las características del sistema visual humano, en inglés Human Visual System, del que toman sus siglas HVS, y los que, por el contrario, optan por una aproximación ingenieril en la que el cálculo de calidad está basado en la extracción de parámetros intrínsecos de la imagen y su comparación. A pesar de los avances recogidos en este campo en los últimos años, la investigación en métricas de calidad de vídeo, tanto en presencia de referencia (los modelos denominados de referencia completa), como en presencia de parte de ella (modelos de referencia reducida) e incluso los que trabajan en ausencia de la misma (denominados sin referencia), tiene un amplio camino de mejora y objetivos por alcanzar. Dentro de ellos, la medida de señales de alta definición, especialmente las utilizadas en las primeras etapas de la cadena de valor que son de muy alta calidad, son de especial interés por su influencia en la calidad final del servicio y no existen modelos fiables de medida en la actualidad. Esta tesis doctoral presenta un modelo de medida de calidad de referencia completa que hemos llamado PARMENIA (PArallel Ratios MEtric from iNtrInsic features Analysis), basado en la ponderación de cuatro ratios de calidad calculados a partir de características intrínsecas de la imagen. Son: El Ratio de Fidelidad, calculado mediante el gradiente morfológico o gradiente de Beucher. El Ratio de Similitud Visual, calculado mediante los puntos visualmente significativos de la imagen a través de filtrados locales de contraste. El Ratio de Nitidez, que procede de la extracción del estadístico de textura de Haralick contraste. El Ratio de Complejidad, obtenido de la definición de homogeneidad del conjunto de estadísticos de textura de Haralick PARMENIA presenta como novedad la utilización de la morfología matemática y estadísticos de Haralick como base de una métrica de medida de calidad, pues esas técnicas han estado tradicionalmente más ligadas a la teledetección y la segmentación de objetos. Además, la aproximación de la métrica como un conjunto ponderado de ratios es igualmente novedosa debido a que se alimenta de modelos de similitud estructural y otros más clásicos, basados en la perceptibilidad del error generado por la degradación de la señal asociada a la compresión. PARMENIA presenta resultados con una altísima correlación con las valoraciones MOS procedentes de las pruebas subjetivas a usuarios que se han realizado para la validación de la misma. El corpus de trabajo seleccionado procede de conjuntos de secuencias validados internacionalmente, de modo que los resultados aportados sean de la máxima calidad y el máximo rigor posible. La metodología de trabajo seguida ha consistido en la generación de un conjunto de secuencias de prueba de distintas calidades a través de la codificación con distintos escalones de cuantificación, la obtención de las valoraciones subjetivas de las mismas a través de pruebas subjetivas de calidad (basadas en la recomendación de la Unión Internacional de Telecomunicaciones BT.500), y la validación mediante el cálculo de la correlación de PARMENIA con estos valores subjetivos, cuantificada a través del coeficiente de correlación de Pearson. Una vez realizada la validación de los ratios y optimizada su influencia en la medida final y su alta correlación con la percepción, se ha realizado una segunda revisión sobre secuencias del hdtv test dataset 1 del Grupo de Expertos de Calidad de Vídeo (VQEG, Video Quality Expert Group) mostrando los resultados obtenidos sus claras ventajas. Abstract Visual Quality Assessment has been so far one of the most intriguing challenges on the media environment. Progressive evolution towards higher resolutions while increasing the quality needed (e.g. high definition and better image quality) aims to redefine models for quality measuring. Given the growing interest in multimedia services delivery, perceptual quality measurement has become a very active area of research. First, in this work, a classification of objective video quality metrics based on their underlying methodologies and approaches for measuring video quality has been introduced to sum up the state of the art. Then, this doctoral thesis describes an enhanced solution for full reference objective quality measurement based on mathematical morphology, texture features and visual similarity information that provides a normalized metric that we have called PARMENIA (PArallel Ratios MEtric from iNtrInsic features Analysis), with a high correlated MOS score. The PARMENIA metric is based on the pooling of different quality ratios that are obtained from three different approaches: Beucher’s gradient, local contrast filtering, and contrast and homogeneity Haralick’s texture features. The metric performance is excellent, and improves the current state of the art by providing a wide dynamic range that make easier to discriminate between very close quality coded sequences, especially for very high bit rates whose quality, currently, is transparent for quality metrics. PARMENIA introduces a degree of novelty against other working metrics: on the one hand, exploits the structural information variation to build the metric’s kernel, but complements the measure with texture information and a ratio of visual meaningful points that is closer to typical error sensitivity based approaches. We would like to point out that PARMENIA approach is the only metric built upon full reference ratios, and using mathematical morphology and texture features (typically used in segmentation) for quality assessment. On the other hand, it gets results with a wide dynamic range that allows measuring the quality of high definition sequences from bit rates of hundreds of Megabits (Mbps) down to typical distribution rates (5-6 Mbps), even streaming rates (1- 2 Mbps). Thus, a direct correlation between PARMENIA and MOS scores are easily constructed. PARMENIA may further enhance the number of available choices in objective quality measurement, especially for very high quality HD materials. All this results come from validation that has been achieved through internationally validated datasets on which subjective tests based on ITU-T BT.500 methodology have been carried out. Pearson correlation coefficient has been calculated to verify the accuracy of PARMENIA and its reliability.
Resumo:
La prevalencia de las alergias está aumentando desde mediados del siglo XX, y se estima que actualmente afectan a alrededor del 2-8 % de la población, pero las causas de este aumento aún no están claras. Encontrar el origen del mecanismo por el cual una proteína inofensiva se convierte en capaz de inducir una respuesta alérgica es de vital importancia para prevenir y tratar estas enfermedades. Aunque la caracterización de alérgenos relevantes ha ayudado a mejorar el manejo clínico y a aclarar los mecanismos básicos de las reacciones alérgicas, todavía queda un largo camino para establecer el origen de la alergenicidad y reactividad cruzada. El objetivo de esta tesis ha sido caracterizar las bases moleculares de la alergenicidad tomando como modelo dos familias de panalergenos (proteínas de transferencia de lípidos –LTPs- y taumatinas –TLPs-) y estudiando los mecanismos que median la sensibilización y la reactividad cruzada para mejorar tanto el diagnóstico como el tratamiento de la alergia. Para ello, se llevaron a cabo dos estrategias: estudiar la reactividad cruzada de miembros de familias de panalérgenos; y estudiar moléculas-co-adyuvantes que pudieran favorecer la capacidad alergénica de dichas proteínas. Para estudiar la reactividad cruzada entre miembros de la misma familia de proteínas, se seleccionaron LTPs y TLPs, descritas como alergenos, tomando como modelo la alergia a frutas. Por otra parte, se estudiaron los perfiles de sensibilización a alérgenos de trigo relacionados con el asma del panadero, la enfermedad ocupacional más relevante de origen alérgico. Estos estudios se llevaron a cabo estandarizando ensayos tipo microarrays con alérgenos y analizando los resultados por la teoría de grafos. En relación al estudiar moléculas-co-adyuvantes que pudieran favorecer la capacidad alergénica de dichas proteínas, se llevaron a cabo estudios sobre la interacción de los alérgenos alimentarios con células del sistema inmune humano y murino y el epitelio de las mucosas, analizando la importancia de moléculas co-transportadas con los alérgenos en el desarrollo de una respuesta Th2. Para ello, Pru p 3(LTP y alérgeno principal del melocotón) se selección como modelo para llevarlo a cabo. Por otra parte, se analizó el papel de moléculas activadoras del sistema inmune producidas por patógenos en la inducción de alergias alimentarias seleccionando el modelo kiwi-alternaria, y el papel de Alt a 1, alérgeno mayor de dicho hongo, en la sensibilización a Act d 2, alérgeno mayor de kiwi. En resumen, el presente trabajo presenta una investigación innovadora aportando resultados de gran utilidad tanto para la mejora del diagnóstico como para nuevas investigaciones sobre la alergia y el esclarecimiento final de los mecanismos que caracterizan esta enfermedad. ABSTRACT Allergies are increasing their prevalence from mid twentieth century, and they are currently estimated to affect around 2-8% of the population but the underlying causes of this increase remain still elusive. The understanding of the mechanism by which a harmless protein becomes capable of inducing an allergic response provides us the basis to prevent and treat these diseases. Although the characterization of relevant allergens has led to improved clinical management and has helped to clarify the basic mechanisms of allergic reactions, it seems justified in aspiring to molecularly dissecting these allergens to establish the structural basis of their allergenicity and cross-reactivity. The aim of this thesis was to characterize the molecular basis of the allergenicity of model proteins belonging to different families (Lipid Transfer Proteins –LTPs-, and Thaumatin-like Proteins –TLPs-) in order to identify mechanisms that mediate sensitization and cross reactivity for developing new strategies in the management of allergy, both diagnosis and treatment, in the near future. With this purpose, two strategies have been conducted: studies of cross-reactivity among panallergen families and molecular studies of the contribution of cofactors in the induction of the allergic response by these panallergens. Following the first strategy, we studied the cross-reactivity among members of two plant panallergens (LTPs , Lipid Transfer Proteins , and TLPs , Thaumatin-like Proteins) using the peach allergy as a model. Similarly, we characterized the sensitization profiles to wheat allergens in baker's asthma development, the most relevant occupational disease. These studies were performed using allergen microarrays and the graph theory for analyzing the results. Regarding the second approach, we analyzed the interaction of plant allergens with immune and epithelial cells. To perform these studies , we examined the importance of ligands and co-transported molecules of plant allergens in the development of Th2 responses. To this end, Pru p 3, nsLTP (non-specific Lipid Transfer Protein) and peach major allergen, was selected as a model to investigate its interaction with cells of the human and murine immune systems as well as with the intestinal epithelium and the contribution of its ligand in inducing an allergic response was studied. Moreover, we analyzed the role of pathogen associated molecules in the induction of food allergy. For that, we selected the kiwi- alternaria system as a model and the role of Alt a 1 , major allergen of the fungus, in the development of Act d 2-sensitization was studied. In summary, this work presents an innovative research providing useful results for improving diagnosis and leading to further research on allergy and the final clarification of the mechanisms that characterize this disease.
Resumo:
La medida de calidad de vídeo sigue siendo necesaria para definir los criterios que caracterizan una señal que cumpla los requisitos de visionado impuestos por el usuario. Las nuevas tecnologías, como el vídeo 3D estereoscópico o formatos más allá de la alta definición, imponen nuevos criterios que deben ser analizadas para obtener la mayor satisfacción posible del usuario. Entre los problemas detectados durante el desarrollo de esta tesis doctoral se han determinado fenómenos que afectan a distintas fases de la cadena de producción audiovisual y tipo de contenido variado. En primer lugar, el proceso de generación de contenidos debe encontrarse controlado mediante parámetros que eviten que se produzca el disconfort visual y, consecuentemente, fatiga visual, especialmente en lo relativo a contenidos de 3D estereoscópico, tanto de animación como de acción real. Por otro lado, la medida de calidad relativa a la fase de compresión de vídeo emplea métricas que en ocasiones no se encuentran adaptadas a la percepción del usuario. El empleo de modelos psicovisuales y diagramas de atención visual permitirían ponderar las áreas de la imagen de manera que se preste mayor importancia a los píxeles que el usuario enfocará con mayor probabilidad. Estos dos bloques se relacionan a través de la definición del término saliencia. Saliencia es la capacidad del sistema visual para caracterizar una imagen visualizada ponderando las áreas que más atractivas resultan al ojo humano. La saliencia en generación de contenidos estereoscópicos se refiere principalmente a la profundidad simulada mediante la ilusión óptica, medida en términos de distancia del objeto virtual al ojo humano. Sin embargo, en vídeo bidimensional, la saliencia no se basa en la profundidad, sino en otros elementos adicionales, como el movimiento, el nivel de detalle, la posición de los píxeles o la aparición de caras, que serán los factores básicos que compondrán el modelo de atención visual desarrollado. Con el objetivo de detectar las características de una secuencia de vídeo estereoscópico que, con mayor probabilidad, pueden generar disconfort visual, se consultó la extensa literatura relativa a este tema y se realizaron unas pruebas subjetivas preliminares con usuarios. De esta forma, se llegó a la conclusión de que se producía disconfort en los casos en que se producía un cambio abrupto en la distribución de profundidades simuladas de la imagen, aparte de otras degradaciones como la denominada “violación de ventana”. A través de nuevas pruebas subjetivas centradas en analizar estos efectos con diferentes distribuciones de profundidades, se trataron de concretar los parámetros que definían esta imagen. Los resultados de las pruebas demuestran que los cambios abruptos en imágenes se producen en entornos con movimientos y disparidades negativas elevadas que producen interferencias en los procesos de acomodación y vergencia del ojo humano, así como una necesidad en el aumento de los tiempos de enfoque del cristalino. En la mejora de las métricas de calidad a través de modelos que se adaptan al sistema visual humano, se realizaron también pruebas subjetivas que ayudaron a determinar la importancia de cada uno de los factores a la hora de enmascarar una determinada degradación. Los resultados demuestran una ligera mejora en los resultados obtenidos al aplicar máscaras de ponderación y atención visual, los cuales aproximan los parámetros de calidad objetiva a la respuesta del ojo humano. ABSTRACT Video quality assessment is still a necessary tool for defining the criteria to characterize a signal with the viewing requirements imposed by the final user. New technologies, such as 3D stereoscopic video and formats of HD and beyond HD oblige to develop new analysis of video features for obtaining the highest user’s satisfaction. Among the problems detected during the process of this doctoral thesis, it has been determined that some phenomena affect to different phases in the audiovisual production chain, apart from the type of content. On first instance, the generation of contents process should be enough controlled through parameters that avoid the occurrence of visual discomfort in observer’s eye, and consequently, visual fatigue. It is especially necessary controlling sequences of stereoscopic 3D, with both animation and live-action contents. On the other hand, video quality assessment, related to compression processes, should be improved because some objective metrics are adapted to user’s perception. The use of psychovisual models and visual attention diagrams allow the weighting of image regions of interest, giving more importance to the areas which the user will focus most probably. These two work fields are related together through the definition of the term saliency. Saliency is the capacity of human visual system for characterizing an image, highlighting the areas which result more attractive to the human eye. Saliency in generation of 3DTV contents refers mainly to the simulated depth of the optic illusion, i.e. the distance from the virtual object to the human eye. On the other hand, saliency is not based on virtual depth, but on other features, such as motion, level of detail, position of pixels in the frame or face detection, which are the basic features that are part of the developed visual attention model, as demonstrated with tests. Extensive literature involving visual comfort assessment was looked up, and the development of new preliminary subjective assessment with users was performed, in order to detect the features that increase the probability of discomfort to occur. With this methodology, the conclusions drawn confirmed that one common source of visual discomfort was when an abrupt change of disparity happened in video transitions, apart from other degradations, such as window violation. New quality assessment was performed to quantify the distribution of disparities over different sequences. The results confirmed that abrupt changes in negative parallax environment produce accommodation-vergence mismatches derived from the increasing time for human crystalline to focus the virtual objects. On the other side, for developing metrics that adapt to human visual system, additional subjective tests were developed to determine the importance of each factor, which masks a concrete distortion. Results demonstrated slight improvement after applying visual attention to objective metrics. This process of weighing pixels approximates the quality results to human eye’s response.
Resumo:
El Daño Cerebral (DC) se refiere a cualquier lesión producida en el cerebro y que afecta a su funcionalidad. Se ha convertido en una de las principales causas de discapacidad neurológica de las sociedades desarrolladas. Hasta la más sencilla de las actividades y acciones que realizamos en nuestro día a día involucran a los procesos cognitivos. Por ello, la alteración de las funciones cognitivas como consecuencia del DC, limita no sólo la calidad de vida del paciente sino también la de las persona de su entorno. La rehabilitación cognitiva trata de aumentar la autonomía y calidad de vida del paciente minimizando o compensando los desórdenes funciones causados por el episodio de DC. La plasticidad cerebral es una propiedad intrínseca al sistema nervioso humano por la que en función a la experiencia se crean nuevos patrones de conectividad. El propósito de la neurorrehabilitación es precisamente modular esta propiedad intrínseca a partir de ejercicios específicos, los cuales podrían derivar en la recuperación parcial o total de las funciones afectadas. La incorporación de la tecnología a las terapias de rehabilitación ha permitido desarrollar nuevas metodologías de trabajo. Esto ha ayudado a hacer frente a las dificultades de la rehabilitación que los procesos tradicionales no logran abarcar. A pesar del gran avance realizado en los Ãoltimos años, todavía existen debilidades en el proceso de rehabilitación; por ejemplo, la trasferencia a la vida real de las habilidades logradas durante la terapia de rehabilitación, así como su generalización a otras actividades cotidianas. Los entornos virtuales pueden reproducir situaciones cotidianas. Permiten simular, de forma controlada, los requisitos conductuales que encontramos en la vida real. En un contexto terapéutico, puede ser utilizado por el neuropsicólogo para corregir en el paciente comportamientos patológicos no deseados, realizar intervenciones terapéuticas sobre Actividades de Vida Diaria que estimulen conductas adaptativas. A pesar de que las tecnologías actuales tienen potencial suficiente para aportar nuevos beneficios al proceso de rehabilitación, existe cierta reticencia a su incorporación a la clínica diaria. A día de hoy, no se ha podido demostrar que su uso aporte una mejorar significativa con respecto a otro tipo de intervención; en otras palabras, no existe evidencia científica de la eficacia del uso de entornos virtuales interactivos en rehabilitación. En este contexto, la presente Tesis Doctoral trata de abordar los aspectos que mantienen a los entornos virtuales interactivos al margen de la rutina clínica diaria. Se estudian las diferentes etapas del proceso de rehabilitación cognitiva relacionado con la integración y uso de estos entornos: diseño de las actividades, su implementación en el entorno virtual, y finalmente la ejecución por el paciente y análisis de los respectivos datos. Por tanto, los bloques en los que queda dividido el trabajo de investigación expuesto en esta memoria son: 1. Diseño de las AVD. La definición y configuración de los elementos que componen la AVD permite al terapeuta diseñar estrategias de intervención terapéutica para actuar sobre el comportamiento del paciente durante la ejecución de la actividad. En esta parte de la tesis se pretende formalizar el diseño de las AVD de tal forma que el terapeuta pueda explotar el potencial tecnológico de los entornos virtuales interactivos abstrayéndose de la complejidad implícita a la tecnología. Para hacer viable este planteamiento se propone una metodología que permita modelar la definición de las AVD, representar el conocimiento implícito en ellas, y asistir al neuropsicólogo durante el proceso de diseño de la intervención clínica. 2. Entorno virtual interactivo. El gran avance tecnológico producido durante los Ãoltimos años permite reproducir AVD interactivas en un contexto de uso clínico. El objetivo perseguido en esta parte de la Tesis es el de extraer las características potenciales de esta solución tecnológica y aplicarla a las necesidades y requisitos de la rehabilitación cognitiva. Se propone el uso de la tecnología de Vídeo Interactivo para el desarrollo de estos entornos virtuales. Para la evaluación de la misma se realiza un estudio experimental dividido en dos fases con la participación de sujetos sanos y pacientes, donde se valora su idoneidad para ser utilizado en terapias de rehabilitación cognitiva. 3. Monitorización de las AVD. El uso de estos entornos virtuales interactivos expone al paciente ante una gran cantidad de estímulos e interacciones. Este hecho requiere de instrumentos de monitorización avanzado que aporten al terapeuta información objetiva sobre el comportamiento del paciente, lo que le podría permitir por ejemplo evaluar la eficacia del tratamiento. En este apartado se propone el uso de métricas basadas en la atención visual y la interacción con el entorno para conocer datos sobre el comportamiento del paciente durante la AVD. Se desarrolla un sistema de monitorización integrado con el entorno virtual que ofrece los instrumentos necesarios para la evaluación de estas métricas para su uso clínico. La metodología propuesta ha permitido diseñar una AVD basada en la definición de intervenciones terapéuticas. Posteriormente esta AVD has sido implementada mediante la tecnología de vídeo interactivo, creando así el prototipo de un entorno virtual para ser utilizado por pacientes con déficit cognitivo. Los resultados del estudio experimental mediante el cual ha sido evaluado demuestran la robustez y usabilidad del sistema, así como su capacidad para intervenir sobre el comportamiento del paciente. El sistema monitorización que ha sido integrado con el entorno virtual aporta datos objetivos sobre el comportamiento del paciente durante la ejecución de la actividad. Los resultados obtenidos permiten contrastar las hipótesis de investigación planteadas en la Tesis Doctoral, aportando soluciones que pueden ayudar a la integración de los entornos virtuales interactivos en la rutina clínica. Esto abre una nueva vía de investigación y desarrollo que podría suponer un gran progreso y mejora en los procesos de neurorrehabilitación cognitiva en daño cerebral. ABSTRACT Brain injury (BI) refers to medical conditions that occur in the brain, altering its function. It becomes one of the main neurological disabilities in the developed society. Cognitive processes determine individual performance in Activities of Daily Living (ADL), thus, the cognitive disorders after BI result in a loss of autonomy and independence, affecting the patient’s quality of life. Cognitive rehabilitation seeks to increase patients’ autonomy and quality of life minimizing or compensating functional disorders showed by BI patients. Brain plasticity is an intrinsic property of the human nervous system whereby its structure is changed depending on experience. Neurorehabilitation pursuits a precise modulation of this intrinsic property, based on specific exercises to induce functional changes, which could result in partial or total recovery of the affected functions. The new methodologies that can be approached by applying technologies to the rehabilitation process, permit to deal with the difficulties which are out of the scope of the traditional rehabilitation. Despite this huge breakthrough, there are still weaknesses in the rehabilitation process, such as the transferring to the real life those skills reached along the therapy, and its generalization to others daily activities. Virtual environments reproduce daily situations. Behavioural requirements which are similar to those we perceive in real life, are simulated in a controlled way. In these virtual environments the therapist is allowed to interact with patients without even being present, inhibiting unsuitable behaviour patterns, stimulating correct answers throughout the simulation and enhancing stimuli with supplementary information when necessary. Despite the benefits which could be brought to the cognitive rehabilitation by applying the potential of the current technologies, there are barriers for widespread use of interactive virtual environments in clinical routine. At present, the evidence that these technologies bring a significant improvement to the cognitive therapies is limited. In other words, there is no evidence about the efficacy of using virtual environments in rehabilitation. In this context, this work aims to address those issues which keep the virtual environments out of the clinical routine. The stages of the cognitive rehabilitation process, which are related with the use and integration of these environments, are analysed: activities design, its implementation in the virtual environment, and the patient’s performance and the data analysis. Hence, the thesis is comprised of the main chapters that are listed below: 1. ADL Design.Definition and configuration of the elements which comprise the ADL allow the therapist to design intervention strategies to influence over the patient behaviour along the activity performance. This chapter aims to formalise the AVD design in order to help neuropsychologists to make use of the interactive virtual environments’ potential but isolating them from the complexity of the technology. With this purpose a new methodology is proposed as an instrument to model the ADL definition, to manage its implied knowledge and to assist the clinician along the design process of the therapeutic intervention. 2. Interactive virtual environment. Continuous advancements make the technology feasible for re-creating rehabilitation therapies based on ADL. The goal of this stage is to analyse the main features of virtual environments in order to apply them according to the cognitive rehabilitation’s requirements. The interactive video is proposed as the technology to develop virtual environments. Experimental study is carried out to assess the suitability of the interactive video to be used by cognitive rehabilitation. 3. ADL monitoring system. This kind of virtual environments bring patients in front lots of stimuli and interactions. Thus, advanced monitoring instruments are needed to provide therapist with objective information about patient’s behaviour. This thesis chapter propose the use of metrics rely on visual patients’ visual attention and their interactions with the environment. A monitoring system has been developed and integrated with the interactive video-based virtual environment, providing neuropsychologist with the instruments to evaluate the clinical force of this metrics. Therapeutic interventions-based ADL has been designed by using the proposed methodology. Interactive video technology has been used to develop the ADL, resulting in a virtual environment prototype to be use by patients who suffer a cognitive deficits. An experimental study has been performed to evaluate the virtual environment, whose overcomes show the usability and solidity of the system, and also its capacity to have influence over patient’s behaviour. The monitoring system, which has been embedded in the virtual environment, provides objective information about patients’ behaviour along their activity performance. Research hypothesis of the Thesis are proven by the obtained results. They could help to incorporate the interactive virtual environments in the clinical routine. This may be a significant step forward to enhance the cognitive neurorehabilitation processes in brain injury.
Resumo:
Os ratos Wistar são amplamente empregados como modelo animal na pesquisa biomédica e o controle sanitário dos biotérios é essencial para garantir a qualidade dos experimentos. O objetivo do estudo foi a caracterização do estado sanitário da colônia de ratos Wistar em sistema de criação convencional e para tanto determinar as bactérias, fungos, virus e parasitos, bem como caracterizar as lesões anatomopatológicas do sistema respiratório. Foram utilizados 273 ratos (N), machos (M) e fêmeas (F), das faixas etárias 4, 8, 12, 16 a 20 semanas e entre 12 a 18 meses, para as determinações de peso e condição corpórea (N=273, 140M, 133F); avaliação bacteriológica de orofaringe, mucosa intestinal e lavado traqueobrônquico (N=40, 20M, 20F); determinação de anticorpos para vírus e bactérias (N=20, 10M, 10F); exame parasitológico (N=60, 30M, 30F); identificação molecular de Mycoplasma pulmonis em amostras de pulmão (N=25, 15M, 10F), e caracterização anatomopatológica da cavidade nasal, orofaringe, laringe, traqueia e pulmão (N=106, 53M, 53F). Foram realizadas ainda avaliações microbiológicas das salas dos ratos em três períodos com isolamento de Micrococcus spp., Staphylococcus spp., Bacillus spp., Aspergillus spp. e Penicillium spp. O peso se mostrou homogêneo dentro da faixa etária e gênero, com apenas sete animais magros (2,56%) e nove em sobrepeso (3,30%). Não foram isoladas bactérias patogênicas na orofaringe, mucosa intestinal e lavado traqueobrônquico por cultivo. Mycoplasma pulmonis foi determinado em 72% das amostras pulmonares e em 100% dos soros testados. Em 35% foram detectados anticorpos para Reovirus tipo III e em 100% para bacilos associados ao epitélio respiratório ciliado. Syphacia muris foi diagnosticada em 91,67%, Eimeria spp. em 3,33% e Entamoeba muris em 1,67%. Lesões relacionadas a infecção por agentes exógenos foram observadas em cavidade nasal e na orofaringe, laringe e traqueia a partir da 4 semanas de idade e, em pulmão desde as 12 semanas, com aumento de frequência de ocorrência e do grau de progressão, com o avançar da idade, nos vários segmentos estudados. Concluímos que a caracterização do estado sanitário dos ratos permite conhecer as particularidades do modelo biológico utilizado e compor base de dados para auxiliar no desenho e na interpretação experimental dos pesquisadores, além de garantir uma base para o programa de monitorização sanitária de biotérios em condições similares
Resumo:
O transporte mucociliar (TMC) é um mecanismo básico de defesa do sistema respiratório necessário na resistência à infecção. A efetividade desse mecanismo de defesa depende da composição e profundidade do muco, da integridade e da função dos cílios e da interação muco-cílio. O objetivo deste estudo foi investigar os efeitos crônicos do oxigenoterapia de baixo fluxo via cateter nasal com e sem umidificação sobre o TMC nasal, nas propriedades físicas do muco, na inflamação e nos sintomas de vias aéreas em pacientes com hipoxemia crônica com necessidade de oxigenoterapia domiciliar de longo prazo (>15 horas/dia). Dezoito pacientes (idade média de 68 anos, 7 do sexo masculino, índice de massa corpórea (IMC) médio de 26 kg/m2, 66% com doença pulmonar obstrutiva crônica (DPOC), 60% com hipertensão arterial (HAS) e ex-tabagistas) iniciando oxigenoterapia de baixo fluxo via cateter nasal foram randomizados para o grupo Oxigênio Seco (n=10) ou Oxigênio Umidificado (n=9). Os pacientes foram avaliados nos tempos: basal, 12 horas, 7 dias, 30 dias, 12 meses e 24 meses para o TMC nasal por meio do teste de trânsito da sacarina, as propriedades físicas do muco por meio de ângulo de contato, a inflamação por meio de quantificação do número total de células e diferenciais e da concentração de citocinas no lavado nasal assim como para sintomas por meio do questionário SNOT-20. O sintoma mais importante relatado por pacientes no basal foi tosse que melhorou após 7 dias de oxigenoterapia. No nosso estudo, os pacientes de ambos grupos apresentaram prolongamento significativo (40%) do TMC nasal ao longo do estudo. O lavado nasal mostrou um aumento das proporções de neutrófilos, das células caliciformes e da concentração do fator de crescimento epidermal (EGF) assim como reduções em macrófagos e concentrações de interferon alfa (IFN-alfa), interleucina (IL)-8 e IL-10 ao longo do estudo. Não houve alterações na proporção de células ciliadas, na concentração de IL-6 e no ângulo de contato do muco em ambos os grupos. A tosse e os sintomas de sono diminuiram significativamente em ambos os grupos. Nosso estudo sugere que a umidificação não tem impacto sobre o TMC nasal, as propriedades do muco, a inflamação e os sintomas em pacientes com baixo fluxo de oxigênio via cateter nasal (BFON)
Resumo:
INTRODUÇÃO: A prevalência de asma tem crescido e a maioria dos pacientes com asma grave não obtém o controle total dos sintomas com as terapias disponíveis, fazendo-se necessária a busca por novas alternativas terapêuticas. Inibidores de proteinases têm sido estudados como tratamento de processos inflamatórios, dentre eles o Enterolobium contortisiliquum Tripsin Inhibitor (EcTI) OBJETIVO: Avaliar se o inibidor de proteinase EcTI modula a hiperresponsividade brônquica à metacolina, inflamação, remodelamento e estresse oxidativo nas vias aéreas e septos alveolares em um modelo experimental de inflamação pulmonar alérgica crônica. MÉTODOS: Vinte e quatro camundongos Balb/c machos, entre seis e sete semanas de vida, pesando em media 25 g foram divididos em quatro grupos: C (controle), OVA (sensibilizados com ovalbumina, 50 ug intraperironeal (i.p) nos dias 0 e 14 e desafiados nos dias 22, 24, 26, 28); C+EC (controle tratados com EcTI (2 mg/kg/i.p) nos dias 22 a 28); OVA+EC (sensibilizados e desafiados com ovalbumina e também tratados com EcTI (2 mg/kg -i.p) nos dias 22 a 28). No dia 29, foram realizadas realizadas: (i) hiperresponsividade à metacolina e obtidas as respostas máximas de resistência e elastância do sistema respiratório; (ii) análise histopatológica do pulmão para quantificação de eosinófilos, fibras colágenas e elásticas nas vias aéreas (VA) e nos septos alveolares (SA); e (iii) imunohistoquímica para quantificação de células positivas para IFN-y, IL-4, IL-5, IL-13, MMP-9, TIMP-1, TGF-beta, iNOS, NF-kB e fração de volume de isoprostano nas VA e nos SA. Uma semana após o dia 29 foi realizada a técnica de anafilaxia cutanea passiva(PCA) para quantificar IgE e IgG1. A significância foi considerada quando p < 0,05. RESULTADOS: Houve aumento de todos os parâmetros avaliados no grupo OVA em relação ao grupo controle (p < 0,05). Houve atenuação da resposta máxima de Rrs e Ers no grupo OVA+EC comparado as grupo OVA (p < 0,05). O tratamento com EcTI nos animais sensibilizados atenuou o número de eosinófilos, células positivas para IL-4, IL-5, IL-13,IFN-y, iNOS, MMP-9, TIMP-1, NF-kB e TGF-beta e fração de volume de isoprostano, fibras colágenas e elásticas nas vias aéreas e nos séptos alveolares quando comparado ao grupo OVA (p < 0,05).Houve reaçao de PCA nos animais sensibilizados com ovalbumina. CONCLUSÃO: EcTI atenuou a hiperresponsividade brônquica, a inflamação, o remodelamento e o estresse oxidativo nesse modelo experimental de inflamação pulmonar alérgica crônica. Embora sejam necessários mais estudos, esse inibidor pode ser considerado uma futura ferramenta farmacológica para o tratamento de asma
Resumo:
Este trabalho avalia a influência das emoções humanas expressas pela mímica da face na tomada de decisão de sistemas computacionais, com o objetivo de melhorar a experiência do usuário. Para isso, foram desenvolvidos três módulos: o primeiro trata-se de um sistema de computação assistiva - uma prancha de comunicação alternativa e ampliada em versão digital. O segundo módulo, aqui denominado Módulo Afetivo, trata-se de um sistema de computação afetiva que, por meio de Visão Computacional, capta a mímica da face do usuário e classifica seu estado emocional. Este segundo módulo foi implementado em duas etapas, as duas inspiradas no Sistema de Codificação de Ações Faciais (FACS), que identifica expressões faciais com base no sistema cognitivo humano. Na primeira etapa, o Módulo Afetivo realiza a inferência dos estados emocionais básicos: felicidade, surpresa, raiva, medo, tristeza, aversão e, ainda, o estado neutro. Segundo a maioria dos pesquisadores da área, as emoções básicas são inatas e universais, o que torna o módulo afetivo generalizável a qualquer população. Os testes realizados com o modelo proposto apresentaram resultados 10,9% acima dos resultados que usam metodologias semelhantes. Também foram realizadas análises de emoções espontâneas, e os resultados computacionais aproximam-se da taxa de acerto dos seres humanos. Na segunda etapa do desenvolvimento do Módulo Afetivo, o objetivo foi identificar expressões faciais que refletem a insatisfação ou a dificuldade de uma pessoa durante o uso de sistemas computacionais. Assim, o primeiro modelo do Módulo Afetivo foi ajustado para este fim. Por fim, foi desenvolvido um Módulo de Tomada de Decisão que recebe informações do Módulo Afetivo e faz intervenções no Sistema Computacional. Parâmetros como tamanho do ícone, arraste convertido em clique e velocidade de varredura são alterados em tempo real pelo Módulo de Tomada de Decisão no sistema computacional assistivo, de acordo com as informações geradas pelo Módulo Afetivo. Como o Módulo Afetivo não possui uma etapa de treinamento para inferência do estado emocional, foi proposto um algoritmo de face neutra para resolver o problema da inicialização com faces contendo emoções. Também foi proposto, neste trabalho, a divisão dos sinais faciais rápidos entre sinais de linha base (tique e outros ruídos na movimentação da face que não se tratam de sinais emocionais) e sinais emocionais. Os resultados dos Estudos de Caso realizados com os alunos da APAE de Presidente Prudente demonstraram que é possível melhorar a experiência do usuário, configurando um sistema computacional com informações emocionais expressas pela mímica da face.
Resumo:
Comunicación y póster presentados en las VIII Jornadas de Redes de Investigación en Docencia Universitaria "Nuevas titulaciones y cambio universitario", Alicante, 8-9 Julio 2010.
Resumo:
Póster y resumen de la comunicación presentada en el VI Congreso Internacional de Docencia Universitaria e Innovación (CIDUI), Barcelona, 30 junio-2 julio 2010.