32 resultados para Téléphones portables


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Travail réalisé en cotutelle avec l'Université Rennes 2 (France)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El artículo está incluido en un número monográfico especial con los trabajos del I Simposio Pluridisciplinar sobre Diseño, Evaluación y Descripción de Contenidos Educativos Reutilizables (Guadalajara, Octubre 2004).Resumen basado en el de la publicación

Relevância:

10.00% 10.00%

Publicador:

Resumo:

[ES] El principal objetivo de este TFG fue la creación de un protocolo basado en CAN que facilitase la integración de redes de microcontroladores. Dicho protocolo tendría que ser sencillo de usar pero con funcionalidades potentes. Se eligió CAN como base puesto que se trataba de un estándar robusto y ampliamente reconocido. El resultado obtenido fue TouCAN, una librería potente pero amigable al usuario. TouCAN posee dos partes claramente diferenciadas pero estrechamente relacionadas, un lado microcontrolador y un lado supervisor. El lado microncontrolador que es sobre el que versa este TFG, está diseñado sobre Arduino, una tecnología muy en boga actualmente dada la facilidad de desarrollo y a una comunidad entusiasta. El objetivo principal de esta parte es la de interconectar los microcontroladores entre sí mediante el protocolo definido en TouCAN, proporcionando las clases y los métodos necesarios para ello. Por otra parte proporciona una serie de métodos de comunicación por el puerto serie para la interacción con un PC supervisor. El lado supervisor está basado en sistemas UNIX, por lo que es compatible con las diversas distribuciones Linux existentes además de ser fácilmente portables a otros sistemas como Mac OS X. Su principal función es la de servir como supervisor del lado microcontrolador. Conectándose a uno de los nodos maestros es capaz de interactuar con el resto de la red, permitiéndole al usuario comunicarse con sus dispositivos en todo momento. TouCAN tiene el potencial necesario para convertirse en una herramienta libre de amplio uso puesto que es sencillo pero potente, sostenida por una tecnología ampliamente conocida.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Programa de doctorado: Sistemas inteligentes y aplicaciones numéricas en ingeniería.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las TIC cada vez tienen un mayor impacto social en el mundo de la enseñanza a distancia, están surgiendo nuevos conceptos relacionados con la forma de llevar el aprendizaje a las personas. La generación de contenidos supone una práctica costosa en tiempo, recursos y personas, es por eso la tendencia a que sean reutilizables, accesibles, portables y durables. Es aquí donde toman su importancia las píldoras formativas o de conocimiento, estando asociadas a un concepto y con una duración entre 5 y 15 minutos. Este trabajo pretende desarrollar píldoras formativas a modo de videos de corta duración sobre conceptos acústicos y guiones de prácticas de laboratorio tratados a lo largo del máster. Se desarrollará también a modo de videojuego el guión de una de las prácticas sirviendo como complemento a los videos. El trabajo se divide en dos partes bien diferenciadas, una de estudio teórico tanto de la tecnología para el desarrollo de los videos, que servirá de guía para futuras píldoras, como del contenido de éstos, y otra parte que tratará la implementación y adaptación de los videos y de los videojuegos. SUMMARY ICTs are becoming a greater social impact in the world of distance learning are emerging concepts related to learning how to take people. Content generation is a costly exercise in time, resources and people, is why the tendency to be reusable, accessible, portable and durable. This is where the importance of taking pills training or knowledge, being associated with a concept and with a duration between 5 and 15 minutes. This work aims to develop training pills as a short videos on concepts and scripts acoustic laboratory practices discussed during the Master. Also be developed as a script for a game of serving practices to supplement the videos. The work is divided into two distinct parts, a theoretical study of both the technology for the development of the videos, which will guide future pills, and the content of these, and another part that will address the implementation and adaptation of the videos and of video games.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La constante evolución de dispositivos portátiles multimedia que se ha producido en la última década ha provocado que hoy en día se disponga de una amplia variedad de dispositivos con capacidad para reproducir contenidos multimedia. En consecuencia, la reproducción de esos contenidos en dichos terminales lleva asociada disponer de procesadores que soporten una alta carga computacional, ya que las tareas de descodificación y presentación de video así lo requieren. Sin embargo, un procesador potente trabajando a elevadas frecuencias provoca un elevado consumo de la batería, y dado que se pretende trabajar con dispositivos portátiles, la vida útil de la batería se convierte en un asunto de especial importancia. La problemática que se plantea se ha convertido en una de las principales líneas de investigación del Grupo de Investigación GDEM (Grupo de Diseño Electrónico y Microelectrónico). En esta línea de trabajo, se persigue cómo optimizar el consumo de energía en terminales portables desde el punto de vista de la reducción de la calidad de experiencia del usuario a cambio de una mayor autonomía del terminal. Por tanto, para lograr esa reducción de la calidad de experiencia mencionada, se requiere un estándar de codificación de vídeo que así lo permita. El Grupo de Investigación GDEM cuenta con experiencia en el estándar de vídeo escalable H.264/SVC, el cual permite degradar la calidad de experiencia en función de las necesidades/características del dispositivo. Más concretamente, un video escalable contiene embebidas distintas versiones del video original que pueden ser descodificadas en diferentes resoluciones, tasas de cuadro y calidades (escalabilidades espacial, temporal y de calidad respectivamente), permitiendo una adaptación rápida y muy flexible. Seleccionado el estándar H.264/SVC para las tareas de vídeo, se propone trabajar con Mplayer, un reproductor de vídeos de código abierto (open source), al cual se le ha integrado un descodificador para vídeo escalable denominado OpenSVC. Por último, como dispositivo portable se trabajará con la plataforma de desarrollo BeagleBoard, un sistema embebido basado en el procesador OMAP3530 que permite modificar la frecuencia de reloj y la tensión de alimentación dinámicamente reduciendo de este modo el consumo del terminal. Este procesador a su vez contiene integrados un procesador de propósito general (ARM Cortex-A8) y un procesador digital de señal (DSP TMS320C64+TM). Debido a la alta carga computacional de la descodificación de vídeos escalables y la escasa optimización del ARM para procesamiento de datos, se propone llevar a cabo la ejecución de Mplayer en el ARM y encargar la tarea de descodificación al DSP, con la finalidad de reducir el consumo y por tanto aumentar la vida útil del sistema embebido sobre el cual se ejecutará la aplicación desarrollada. Una vez realizada esa integración, se llevará a cabo una caracterización del descodificador alojado en el DSP a través de una serie de medidas de rendimiento y se compararán los resultados con los obtenidos en el proceso de descodificación realizado únicamente en el ARM. ABSTRACT During the last years, the multimedia portable terminals have gradually evolved causing that nowadays a several range of devices with the ability of playing multimedia contents are easily available for everyone. Consequently, those multimedia terminals must have high-performance processors to play those contents because the coding and decoding tasks demand high computational load. However, a powerful processor performing to high frequencies implies higher battery consumption, and this issue has become one of the most important problems in the development cycle of a portable terminal. The power/energy consumption optimization on multimedia terminals has become in one the most significant work lines in the Electronic and Microelectronic Research Group of the Universidad Politécnica de Madrid. In particular, the group is researching how to reduce the user‟s Quality of Experience (QoE) quality in exchange for increased battery life. In order to reduce the Quality of Experience (QoE), a standard video coding that allows this operation is required. The H.264/SVC allows reducing the QoE according to the needs/characteristics of the terminal. Specifically, a scalable video contains different versions of original video embedded in an only one video stream, and each one of them can be decoded in different resolutions, frame rates and qualities (spatial, temporal and quality scalabilities respectively). Once the standard video coding is selected, a multimedia player with support for scalable video is needed. Mplayer has been proposed as a multimedia player, whose characteristics (open-source, enormous flexibility and scalable video decoder called OpenSVC) are the most suitable for the aims of this Master Thesis. Lastly, the embedded system BeagleBoard, based on the multi-core processor OMAP3530, will be the development platform used in this project. The multimedia terminal architecture is based on a commercial chip having a General Purpose Processor (GPP – ARM Cortex A8) and a Digital Signal Processor (DSP, TMS320C64+™). Moreover, the processor OMAP3530 has the ability to modify the operating frequency and the supply voltage in a dynamic way in order to reduce the power consumption of the embedded system. So, the main goal of this Master Thesis is the integration of the multimedia player, MPlayer, executed at the GPP, and scalable video decoder, OpenSVC, executed at the DSP in order to distribute the computational load associated with the scalable video decoding task and to reduce the power consumption of the terminal. Once the integration is accomplished, the performance of the OpenSVC decoder executed at the DSP will be measured using different combinations of scalability values. The obtained results will be compared with the scalable video decoding performed at the GPP in order to show the low optimization of this kind of architecture for decoding tasks in contrast to DSP architecture.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The design and development of spoken interaction systems has been a thoroughly studied research scope for the last decades. The aim is to obtain systems with the ability to interact with human agents with a high degree of naturalness and efficiency, allowing them to carry out the actions they desire using speech, as it is the most natural means of communication between humans. To achieve that degree of naturalness, it is not enough to endow systems with the ability to accurately understand the user’s utterances and to properly react to them, even considering the information provided by the user in his or her previous interactions. The system has also to be aware of the evolution of the conditions under which the interaction takes place, in order to act the most coherent way as possible at each moment. Consequently, one of the most important features of the system is that it has to be context-aware. This context awareness of the system can be reflected in the modification of the behaviour of the system taking into account the current situation of the interaction. For instance, the system should decide which action it has to carry out, or the way to perform it, depending on the user that requests it, on the way that the user addresses the system, on the characteristics of the environment in which the interaction takes place, and so on. In other words, the system has to adapt its behaviour to these evolving elements of the interaction. Moreover that adaptation has to be carried out, if possible, in such a way that the user: i) does not perceive that the system has to make any additional effort, or to devote interaction time to perform tasks other than carrying out the requested actions, and ii) does not have to provide the system with any additional information to carry out the adaptation, which could imply a lesser efficiency of the interaction, since users should devote several interactions only to allow the system to become adapted. In the state-of-the-art spoken dialogue systems, researchers have proposed several disparate strategies to adapt the elements of the system to different conditions of the interaction (such as the acoustic characteristics of a specific user’s speech, the actions previously requested, and so on). Nevertheless, to our knowledge there is not any consensus on the procedures to carry out these adaptation. The approaches are to an extent unrelated from one another, in the sense that each one considers different pieces of information, and the treatment of that information is different taking into account the adaptation carried out. In this regard, the main contributions of this Thesis are the following ones: Definition of a contextualization framework. We propose a unified approach that can cover any strategy to adapt the behaviour of a dialogue system to the conditions of the interaction (i.e. the context). In our theoretical definition of the contextualization framework we consider the system’s context as all the sources of variability present at any time of the interaction, either those ones related to the environment in which the interaction takes place, or to the human agent that addresses the system at each moment. Our proposal relies on three aspects that any contextualization approach should fulfill: plasticity (i.e. the system has to be able to modify its behaviour in the most proactive way taking into account the conditions under which the interaction takes place), adaptivity (i.e. the system has also to be able to consider the most appropriate sources of information at each moment, both environmental and user- and dialogue-dependent, to effectively adapt to the conditions aforementioned), and transparency (i.e. the system has to carry out the contextualizaton-related tasks in such a way that the user neither perceives them nor has to do any effort in providing the system with any information that it needs to perform that contextualization). Additionally, we could include a generality aspect to our proposed framework: the main features of the framework should be easy to adopt in any dialogue system, regardless of the solution proposed to manage the dialogue. Once we define the theoretical basis of our contextualization framework, we propose two cases of study on its application in a spoken dialogue system. We focus on two aspects of the interaction: the contextualization of the speech recognition models, and the incorporation of user-specific information into the dialogue flow. One of the modules of a dialogue system that is more prone to be contextualized is the speech recognition system. This module makes use of several models to emit a recognition hypothesis from the user’s speech signal. Generally speaking, a recognition system considers two types of models: an acoustic one (that models each of the phonemes that the recognition system has to consider) and a linguistic one (that models the sequences of words that make sense for the system). In this work we contextualize the language model of the recognition system in such a way that it takes into account the information provided by the user in both his or her current utterance and in the previous ones. These utterances convey information useful to help the system in the recognition of the next utterance. The contextualization approach that we propose consists of a dynamic adaptation of the language model that is used by the recognition system. We carry out this adaptation by means of a linear interpolation between several models. Instead of training the best interpolation weights, we make them dependent on the conditions of the dialogue. In our approach, the system itself will obtain these weights as a function of the reliability of the different elements of information available, such as the semantic concepts extracted from the user’s utterance, the actions that he or she wants to carry out, the information provided in the previous interactions, and so on. One of the aspects more frequently addressed in Human-Computer Interaction research is the inclusion of user specific characteristics into the information structures managed by the system. The idea is to take into account the features that make each user different from the others in order to offer to each particular user different services (or the same service, but in a different way). We could consider this approach as a user-dependent contextualization of the system. In our work we propose the definition of a user model that contains all the information of each user that could be potentially useful to the system at a given moment of the interaction. In particular we will analyze the actions that each user carries out throughout his or her interaction. The objective is to determine which of these actions become the preferences of that user. We represent the specific information of each user as a feature vector. Each of the characteristics that the system will take into account has a confidence score associated. With these elements, we propose a probabilistic definition of a user preference, as the action whose likelihood of being addressed by the user is greater than the one for the rest of actions. To include the user dependent information into the dialogue flow, we modify the information structures on which the dialogue manager relies to retrieve information that could be needed to solve the actions addressed by the user. Usage preferences become another source of contextual information that will be considered by the system towards a more efficient interaction (since the new information source will help to decrease the need of the system to ask users for additional information, thus reducing the number of turns needed to carry out a specific action). To test the benefits of the contextualization framework that we propose, we carry out an evaluation of the two strategies aforementioned. We gather several performance metrics, both objective and subjective, that allow us to compare the improvements of a contextualized system against the baseline one. We will also gather the user’s opinions as regards their perceptions on the behaviour of the system, and its degree of adaptation to the specific features of each interaction. Resumen El diseño y el desarrollo de sistemas de interacción hablada ha sido objeto de profundo estudio durante las pasadas décadas. El propósito es la consecución de sistemas con la capacidad de interactuar con agentes humanos con un alto grado de eficiencia y naturalidad. De esta manera, los usuarios pueden desempeñar las tareas que deseen empleando la voz, que es el medio de comunicación más natural para los humanos. A fin de alcanzar el grado de naturalidad deseado, no basta con dotar a los sistemas de la abilidad de comprender las intervenciones de los usuarios y reaccionar a ellas de manera apropiada (teniendo en consideración, incluso, la información proporcionada en previas interacciones). Adicionalmente, el sistema ha de ser consciente de las condiciones bajo las cuales transcurre la interacción, así como de la evolución de las mismas, de tal manera que pueda actuar de la manera más coherente en cada instante de la interacción. En consecuencia, una de las características primordiales del sistema es que debe ser sensible al contexto. Esta capacidad del sistema de conocer y emplear el contexto de la interacción puede verse reflejada en la modificación de su comportamiento debida a las características actuales de la interacción. Por ejemplo, el sistema debería decidir cuál es la acción más apropiada, o la mejor manera de llevarla a término, dependiendo del usuario que la solicita, del modo en el que lo hace, etcétera. En otras palabras, el sistema ha de adaptar su comportamiento a tales elementos mutables (o dinámicos) de la interacción. Dos características adicionales son requeridas a dicha adaptación: i) el usuario no ha de percibir que el sistema dedica recursos (temporales o computacionales) a realizar tareas distintas a las que aquél le solicita, y ii) el usuario no ha de dedicar esfuerzo alguno a proporcionar al sistema información adicional para llevar a cabo la interacción. Esto último implicaría una menor eficiencia de la interacción, puesto que los usuarios deberían dedicar parte de la misma a proporcionar información al sistema para su adaptación, sin ningún beneficio inmediato. En los sistemas de diálogo hablado propuestos en la literatura, se han propuesto diferentes estrategias para llevar a cabo la adaptación de los elementos del sistema a las diferentes condiciones de la interacción (tales como las características acústicas del habla de un usuario particular, o a las acciones a las que se ha referido con anterioridad). Sin embargo, no existe una estrategia fija para proceder a dicha adaptación, sino que las mismas no suelen guardar una relación entre sí. En este sentido, cada una de ellas tiene en cuenta distintas fuentes de información, la cual es tratada de manera diferente en función de las características de la adaptación buscada. Teniendo en cuenta lo anterior, las contribuciones principales de esta Tesis son las siguientes: Definición de un marco de contextualización. Proponemos un criterio unificador que pueda cubrir cualquier estrategia de adaptación del comportamiento de un sistema de diálogo a las condiciones de la interacción (esto es, el contexto de la misma). En nuestra definición teórica del marco de contextualización consideramos el contexto del sistema como todas aquellas fuentes de variabilidad presentes en cualquier instante de la interacción, ya estén relacionadas con el entorno en el que tiene lugar la interacción, ya dependan del agente humano que se dirige al sistema en cada momento. Nuestra propuesta se basa en tres aspectos que cualquier estrategia de contextualización debería cumplir: plasticidad (es decir, el sistema ha de ser capaz de modificar su comportamiento de la manera más proactiva posible, teniendo en cuenta las condiciones en las que tiene lugar la interacción), adaptabilidad (esto es, el sistema ha de ser capaz de considerar la información oportuna en cada instante, ya dependa del entorno o del usuario, de tal manera que adecúe su comportamiento de manera eficaz a las condiciones mencionadas), y transparencia (que implica que el sistema ha de desarrollar las tareas relacionadas con la contextualización de tal manera que el usuario no perciba la manera en que dichas tareas se llevan a cabo, ni tampoco deba proporcionar al sistema con información adicional alguna). De manera adicional, incluiremos en el marco propuesto el aspecto de la generalidad: las características del marco de contextualización han de ser portables a cualquier sistema de diálogo, con independencia de la solución propuesta en los mismos para gestionar el diálogo. Una vez hemos definido las características de alto nivel de nuestro marco de contextualización, proponemos dos estrategias de aplicación del mismo a un sistema de diálogo hablado. Nos centraremos en dos aspectos de la interacción a adaptar: los modelos empleados en el reconocimiento de habla, y la incorporación de información específica de cada usuario en el flujo de diálogo. Uno de los módulos de un sistema de diálogo más susceptible de ser contextualizado es el sistema de reconocimiento de habla. Este módulo hace uso de varios modelos para generar una hipótesis de reconocimiento a partir de la señal de habla. En general, un sistema de reconocimiento emplea dos tipos de modelos: uno acústico (que modela cada uno de los fonemas considerados por el reconocedor) y uno lingüístico (que modela las secuencias de palabras que tienen sentido desde el punto de vista de la interacción). En este trabajo contextualizamos el modelo lingüístico del reconocedor de habla, de tal manera que tenga en cuenta la información proporcionada por el usuario, tanto en su intervención actual como en las previas. Estas intervenciones contienen información (semántica y/o discursiva) que puede contribuir a un mejor reconocimiento de las subsiguientes intervenciones del usuario. La estrategia de contextualización propuesta consiste en una adaptación dinámica del modelo de lenguaje empleado en el reconocedor de habla. Dicha adaptación se lleva a cabo mediante una interpolación lineal entre diferentes modelos. En lugar de entrenar los mejores pesos de interpolación, proponemos hacer los mismos dependientes de las condiciones actuales de cada diálogo. El propio sistema obtendrá estos pesos como función de la disponibilidad y relevancia de las diferentes fuentes de información disponibles, tales como los conceptos semánticos extraídos a partir de la intervención del usuario, o las acciones que el mismo desea ejecutar. Uno de los aspectos más comúnmente analizados en la investigación de la Interacción Persona-Máquina es la inclusión de las características específicas de cada usuario en las estructuras de información empleadas por el sistema. El objetivo es tener en cuenta los aspectos que diferencian a cada usuario, de tal manera que el sistema pueda ofrecer a cada uno de ellos el servicio más apropiado (o un mismo servicio, pero de la manera más adecuada a cada usuario). Podemos considerar esta estrategia como una contextualización dependiente del usuario. En este trabajo proponemos la definición de un modelo de usuario que contenga toda la información relativa a cada usuario, que pueda ser potencialmente utilizada por el sistema en un momento determinado de la interacción. En particular, analizaremos aquellas acciones que cada usuario decide ejecutar a lo largo de sus diálogos con el sistema. Nuestro objetivo es determinar cuáles de dichas acciones se convierten en las preferencias de cada usuario. La información de cada usuario quedará representada mediante un vector de características, cada una de las cuales tendrá asociado un valor de confianza. Con ambos elementos proponemos una definición probabilística de una preferencia de uso, como aquella acción cuya verosimilitud es mayor que la del resto de acciones solicitadas por el usuario. A fin de incluir la información dependiente de usuario en el flujo de diálogo, llevamos a cabo una modificación de las estructuras de información en las que se apoya el gestor de diálogo para recuperar información necesaria para resolver ciertos diálogos. En dicha modificación las preferencias de cada usuario pasarán a ser una fuente adicional de información contextual, que será tenida en cuenta por el sistema en aras de una interacción más eficiente (puesto que la nueva fuente de información contribuirá a reducir la necesidad del sistema de solicitar al usuario información adicional, dando lugar en consecuencia a una reducción del número de intervenciones necesarias para llevar a cabo una acción determinada). Para determinar los beneficios de las aplicaciones del marco de contextualización propuesto, llevamos a cabo una evaluación de un sistema de diálogo que incluye las estrategias mencionadas. Hemos recogido diversas métricas, tanto objetivas como subjetivas, que nos permiten determinar las mejoras aportadas por un sistema contextualizado en comparación con el sistema sin contextualizar. De igual manera, hemos recogido las opiniones de los participantes en la evaluación acerca de su percepción del comportamiento del sistema, y de su capacidad de adaptación a las condiciones concretas de cada interacción.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En una entidad corporativa es frecuente encontrar sistemas de control de acceso basados en credencial simple (usuario/contraseña). Tanto empleados como clientes utilizan estos credenciales para hacer uso de recursos disponibles en la red corporativa, pero el nivel de seguridad que ofrecen es muy bajo y sólo controlan el acceso a los recursos. Por el contrario, en entornos gubernamentales o sistemas críticos, se está difundiendo una tecnología que permite controlar el acceso al medio desde cualquier punto de la infraestructura (interno o externo), aplicando para ello estándares y normativas de seguridad, e igualmente haciendo uso de dispositivos criptográficos portables. Como resultado se obtiene un notable incremento del nivel de seguridad, que redunda en beneficio de todas las partes implicadas(trabajadores, clientes y organizaciones).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La finalidad de este proyecto es el desarrollo de un dispositivo que permita realizar de manera inalámbrica el control de toda clase de equipos MIDI, tales como sintetizadores o mesas de mezclas. Las aplicaciones prácticas que puede tener un dispositivo de estas característica son múltiples, tales como simplificar el conexionado en un estudio de grabación, controlar a distancia instrumentos musicales, y facilitar el uso de dispositivos portables y de amplio acceso tales como teléfonos móviles y tablets para controlar diversos equipos de audio. El desarrollo del proyecto consistirá en primer lugar en la búsqueda y adquisición de los componentes hardware y software necesarios para el diseño del dispositivo, y en segundo lugar del diseño, programación y puesta en funcionamiento de un prototipo del mismo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El reciente crecimiento masivo de medios on-line y el incremento de los contenidos generados por los usuarios (por ejemplo, weblogs, Twitter, Facebook) plantea retos en el acceso e interpretación de datos multilingües de manera eficiente, rápida y asequible. El objetivo del proyecto TredMiner es desarrollar métodos innovadores, portables, de código abierto y que funcionen en tiempo real para generación de resúmenes y minería cross-lingüe de medios sociales a gran escala. Los resultados se están validando en tres casos de uso: soporte a la decisión en el dominio financiero (con analistas, empresarios, reguladores y economistas), monitorización y análisis político (con periodistas, economistas y políticos) y monitorización de medios sociales sobre salud con el fin de detectar información sobre efectos adversos a medicamentos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le papier bioactif est obtenu par la modification de substrat du papier avec des biomolécules et des réactifs. Ce type de papier est utilisé dans le développement de nouveaux biocapteurs qui sont portables, jetables et économiques visant à capturer, détecter et dans certains cas, désactiver les agents pathogènes. Généralement les papiers bioactifs sont fabriqués par l’incorporation de biomolécules telles que les enzymes et les anticorps sur la surface du papier. L’immobilisation de ces biomolécules sur les surfaces solides est largement utilisée pour différentes applications de diagnostic comme dans immunocapteurs et immunoessais mais en raison de la nature sensible des enzymes, leur intégration au papier à grande échelle a rencontré plusieurs difficultés surtout dans les conditions industrielles. Pendant ce temps, les microcapsules sont une plate-forme intéressante pour l’immobilisation des enzymes et aussi assez efficace pour permettre à la fonctionnalisation du papier à grande échelle car le papier peut être facilement recouvert avec une couche de telles microcapsules. Dans cette étude, nous avons développé une plate-forme générique utilisant des microcapsules à base d’alginate qui peuvent être appliquées aux procédés usuels de production de papier bioactif et antibactérien avec la capacité de capturer des pathogènes à sa surface et de les désactiver grâce à la production d’un réactif anti-pathogène. La conception de cette plate-forme antibactérienne est basée sur la production constante de peroxyde d’hydrogène en tant qu’agent antibactérien à l’intérieur des microcapsules d’alginate. Cette production de peroxyde d’hydrogène est obtenue par oxydation du glucose catalysée par la glucose oxydase encapsulée à l’intérieur des billes d’alginate. Les différentes étapes de cette étude comprennent le piégeage de la glucose oxydase à l’intérieur des microcapsules d’alginate, l’activation et le renforcement de la surface des microcapsules par ajout d’une couche supplémentaire de chitosan, la vérification de la possibilité d’immobilisation des anticorps (immunoglobulines G humaine comme une modèle d’anticorps) sur la surface des microcapsules et enfin, l’évaluation des propriétés antibactériennes de cette plate-forme vis-à-vis l’Escherichia coli K-12 (E. coli K-12) en tant qu’un représentant des agents pathogènes. Après avoir effectué chaque étape, certaines mesures et observations ont été faites en utilisant diverses méthodes et techniques analytiques telles que la méthode de Bradford pour dosage des protéines, l’électroanalyse d’oxygène, la microscopie optique et confocale à balayage laser (CLSM), la spectrométrie de masse avec désorption laser assistée par matrice- temps de vol (MALDI-TOF-MS), etc. Les essais appropriés ont été effectués pour valider la réussite de modification des microcapsules et pour confirmer à ce fait que la glucose oxydase est toujours active après chaque étape de modification. L’activité enzymatique spécifique de la glucose oxydase après l’encapsulation a été évaluée à 120±30 U/g. Aussi, des efforts ont été faits pour immobiliser la glucose oxydase sur des nanoparticules d’or avec deux tailles différentes de diamètre (10,9 nm et 50 nm) afin d’améliorer l’activité enzymatique et augmenter l’efficacité d’encapsulation. Les résultats obtenus lors de cette étude démontrent les modifications réussies sur les microcapsules d’alginate et aussi une réponse favorable de cette plate-forme antibactérienne concernant la désactivation de E. coli K-12. La concentration efficace de l’activité enzymatique afin de désactivation de cet agent pathogénique modèle a été déterminée à 1.3×10-2 U/ml pour une concentration de 6.7×108 cellules/ml de bactéries. D’autres études sont nécessaires pour évaluer l’efficacité de l’anticorps immobilisé dans la désactivation des agents pathogènes et également intégrer la plate-forme sur le papier et valider l’efficacité du système une fois qu’il est déposé sur papier.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le papier bioactif est obtenu par la modification de substrat du papier avec des biomolécules et des réactifs. Ce type de papier est utilisé dans le développement de nouveaux biocapteurs qui sont portables, jetables et économiques visant à capturer, détecter et dans certains cas, désactiver les agents pathogènes. Généralement les papiers bioactifs sont fabriqués par l’incorporation de biomolécules telles que les enzymes et les anticorps sur la surface du papier. L’immobilisation de ces biomolécules sur les surfaces solides est largement utilisée pour différentes applications de diagnostic comme dans immunocapteurs et immunoessais mais en raison de la nature sensible des enzymes, leur intégration au papier à grande échelle a rencontré plusieurs difficultés surtout dans les conditions industrielles. Pendant ce temps, les microcapsules sont une plate-forme intéressante pour l’immobilisation des enzymes et aussi assez efficace pour permettre à la fonctionnalisation du papier à grande échelle car le papier peut être facilement recouvert avec une couche de telles microcapsules. Dans cette étude, nous avons développé une plate-forme générique utilisant des microcapsules à base d’alginate qui peuvent être appliquées aux procédés usuels de production de papier bioactif et antibactérien avec la capacité de capturer des pathogènes à sa surface et de les désactiver grâce à la production d’un réactif anti-pathogène. La conception de cette plate-forme antibactérienne est basée sur la production constante de peroxyde d’hydrogène en tant qu’agent antibactérien à l’intérieur des microcapsules d’alginate. Cette production de peroxyde d’hydrogène est obtenue par oxydation du glucose catalysée par la glucose oxydase encapsulée à l’intérieur des billes d’alginate. Les différentes étapes de cette étude comprennent le piégeage de la glucose oxydase à l’intérieur des microcapsules d’alginate, l’activation et le renforcement de la surface des microcapsules par ajout d’une couche supplémentaire de chitosan, la vérification de la possibilité d’immobilisation des anticorps (immunoglobulines G humaine comme une modèle d’anticorps) sur la surface des microcapsules et enfin, l’évaluation des propriétés antibactériennes de cette plate-forme vis-à-vis l’Escherichia coli K-12 (E. coli K-12) en tant qu’un représentant des agents pathogènes. Après avoir effectué chaque étape, certaines mesures et observations ont été faites en utilisant diverses méthodes et techniques analytiques telles que la méthode de Bradford pour dosage des protéines, l’électroanalyse d’oxygène, la microscopie optique et confocale à balayage laser (CLSM), la spectrométrie de masse avec désorption laser assistée par matrice- temps de vol (MALDI-TOF-MS), etc. Les essais appropriés ont été effectués pour valider la réussite de modification des microcapsules et pour confirmer à ce fait que la glucose oxydase est toujours active après chaque étape de modification. L’activité enzymatique spécifique de la glucose oxydase après l’encapsulation a été évaluée à 120±30 U/g. Aussi, des efforts ont été faits pour immobiliser la glucose oxydase sur des nanoparticules d’or avec deux tailles différentes de diamètre (10,9 nm et 50 nm) afin d’améliorer l’activité enzymatique et augmenter l’efficacité d’encapsulation. Les résultats obtenus lors de cette étude démontrent les modifications réussies sur les microcapsules d’alginate et aussi une réponse favorable de cette plate-forme antibactérienne concernant la désactivation de E. coli K-12. La concentration efficace de l’activité enzymatique afin de désactivation de cet agent pathogénique modèle a été déterminée à 1.3×10-2 U/ml pour une concentration de 6.7×108 cellules/ml de bactéries. D’autres études sont nécessaires pour évaluer l’efficacité de l’anticorps immobilisé dans la désactivation des agents pathogènes et également intégrer la plate-forme sur le papier et valider l’efficacité du système une fois qu’il est déposé sur papier.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En CAD/CAGC/CG la organización topológica de datos de formas geométricas presenta dificultades: (i) las características matemáticas de la superficie dependen de la consideraciones no geométricas, (ii) los datos presentan una aleatoriedad por efectos del muestreo, y, (iii) una digitalización xyz incluye en general varias direcciones e intervalos de muestreo -- En consecuencia, esta investigación presenta herramientas (portables a diferentes servidores CAD) para la organización topológica de datos de digitalizaciones y un caso de recuperación de formas óseas -- En los dos casos los resultado obtenidos rompen la combinación cerrada hardware - software propietarios tradicionales, con la consecuente reducción en costos de tecnología

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les troubles respiratoires du sommeil ont une prévalence élevée dans la population générale, l’apnée obstructive du sommeil étant le plus important de ces troubles. Malgré tout, une grande proportion des patients avec apnée ne sont pas diagnostiqués. La méthode la plus complète pour diagnostiquer l’apnée est l’enregistrement d’une nuit de sommeil par polysomnographie, aussi appelée enregistrement de type 1, qui est un processus long et coûteux. Pour surmonter ces difficultés, des appareils d’enregistrements portables (ou de type 3) ont été développés. Toutefois, ces enregistrements de type 3 ne capturent pas l’activité cérébrale, mesurée avec l’électroencéphalographie (EEG). Le présent mémoire décrit une étude comparative entre les enregistrements de type 1 et de type 3. Tous les événements respiratoires d’apnée, d’hypopnée et d’éveils liés à un effort respiratoire (RERA, en anglais) seront analysés ainsi que les éveils cérébraux (ou éveils EEG) et les éveils autonomiques. Ces éveils autonomiques se définissent par une hausse de la fréquence cardiaque suite à un événement respiratoire. Pour enrichir les analyses, les variables respiratoires suivantes ont été étudiées : une chute de la saturation en oxygène de 4 % (ODI), l’index d’apnée-hypopnée (IAH), l’indice de perturbations respiratoires avec apnées + hypopnées + RERAs et les éveils EEG (RDIe, en anglais) et le RDI incluant les éveils autonomiques définis par une augmentation de la fréquence cardiaque de 5 bpm (RDIa5). L’objectif de la présente étude est d’évaluer la proportion d’événements respiratoires avec éveils autonomiques ainsi que leur impact sur le RDI des enregistrements de type 1 et 3. L’hypothèse suggère que les événements avec éveils autonomiques auraient un plus grand impact sur le RDI des enregistrements de type 3 contrairement au type 1. Cette étude inclut 72 sujets ayant suivi un enregistrement de polysomnographie complète de type 1 ainsi que 79 sujets différents ayant suivi un enregistrement ambulatoire de type 3. Les analyses suivantes ont été effectuées : 1) les pourcentages d’événements associés avec seulement des éveils autonomiques dans les enregistrements de type 1 et de type 3 ; 2) les fréquences de migration entre les catégories basses et élevées de sévérité de l’AHI en prenant en compte les événements associés avec seulement des éveils autonomiques ; 3) les Bland-Altman (B-A) pour mesurer l’accord entre l’AHI, le RDIe et le RDIa5 (type 1), et entre l’AHI et le RDIa5 (type 3) et ; 4) les corrélations de Pearson et les coefficients de corrélation intraclasse (ICC) pour mesurer l’accord entre l’AHI, le RDIe et le RDIa5 (type 1), et entre l’AHI et le RDIa5 (type 3). L’utilisation du critère de RDIa5 permet d’ajouter 49 % d’événements comptés avec l’AHI pour les enregistrements de type 1, et 51 % d’événements pour ceux de type 3. La présente étude montre que les éveils autonomiques ont un impact similaire autant pour le RDI des enregistrements de type 3 que de type 1. En conclusion, on peut affirmer que le RDIa5 est acceptable et fiable pour les enregistrements de type 3.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les troubles respiratoires du sommeil ont une prévalence élevée dans la population générale, l’apnée obstructive du sommeil étant le plus important de ces troubles. Malgré tout, une grande proportion des patients avec apnée ne sont pas diagnostiqués. La méthode la plus complète pour diagnostiquer l’apnée est l’enregistrement d’une nuit de sommeil par polysomnographie, aussi appelée enregistrement de type 1, qui est un processus long et coûteux. Pour surmonter ces difficultés, des appareils d’enregistrements portables (ou de type 3) ont été développés. Toutefois, ces enregistrements de type 3 ne capturent pas l’activité cérébrale, mesurée avec l’électroencéphalographie (EEG). Le présent mémoire décrit une étude comparative entre les enregistrements de type 1 et de type 3. Tous les événements respiratoires d’apnée, d’hypopnée et d’éveils liés à un effort respiratoire (RERA, en anglais) seront analysés ainsi que les éveils cérébraux (ou éveils EEG) et les éveils autonomiques. Ces éveils autonomiques se définissent par une hausse de la fréquence cardiaque suite à un événement respiratoire. Pour enrichir les analyses, les variables respiratoires suivantes ont été étudiées : une chute de la saturation en oxygène de 4 % (ODI), l’index d’apnée-hypopnée (IAH), l’indice de perturbations respiratoires avec apnées + hypopnées + RERAs et les éveils EEG (RDIe, en anglais) et le RDI incluant les éveils autonomiques définis par une augmentation de la fréquence cardiaque de 5 bpm (RDIa5). L’objectif de la présente étude est d’évaluer la proportion d’événements respiratoires avec éveils autonomiques ainsi que leur impact sur le RDI des enregistrements de type 1 et 3. L’hypothèse suggère que les événements avec éveils autonomiques auraient un plus grand impact sur le RDI des enregistrements de type 3 contrairement au type 1. Cette étude inclut 72 sujets ayant suivi un enregistrement de polysomnographie complète de type 1 ainsi que 79 sujets différents ayant suivi un enregistrement ambulatoire de type 3. Les analyses suivantes ont été effectuées : 1) les pourcentages d’événements associés avec seulement des éveils autonomiques dans les enregistrements de type 1 et de type 3 ; 2) les fréquences de migration entre les catégories basses et élevées de sévérité de l’AHI en prenant en compte les événements associés avec seulement des éveils autonomiques ; 3) les Bland-Altman (B-A) pour mesurer l’accord entre l’AHI, le RDIe et le RDIa5 (type 1), et entre l’AHI et le RDIa5 (type 3) et ; 4) les corrélations de Pearson et les coefficients de corrélation intraclasse (ICC) pour mesurer l’accord entre l’AHI, le RDIe et le RDIa5 (type 1), et entre l’AHI et le RDIa5 (type 3). L’utilisation du critère de RDIa5 permet d’ajouter 49 % d’événements comptés avec l’AHI pour les enregistrements de type 1, et 51 % d’événements pour ceux de type 3. La présente étude montre que les éveils autonomiques ont un impact similaire autant pour le RDI des enregistrements de type 3 que de type 1. En conclusion, on peut affirmer que le RDIa5 est acceptable et fiable pour les enregistrements de type 3.