220 resultados para SOCKET


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La metodología circunstanciada de la enseñanza de la lengua y la literatura desarrollada y argumentada a lo largo de esta investigación se presenta como un modo de renegociar los encastres de perspectivas de las didácticas de la lengua o la literatura que hoy muestran en la Argentina su historia de entramados y superposiciones de diversos estatutos de saberes. Estas reconfiguraciones, estudiadas en las últimas cuatro décadas, no son ajenas a las coyunturas políticas, ni a los mecanismos de reproducción y producción de la cultura escolar y del sistema educativo, expresados en las particularidades de la disciplina escolar. Por ello, esta metodología se articula en tres fundamentos que no sobreimprimen nuevas prerrogativas didácticas a las reconfiguraciones de la enseñanza de la lengua y la literatura que actualmente encarnan la disciplina escolar y el sistema educativo en tres de sus niveles [primario, pero con especial atención al secundario e ingresos a la educación superior]. Básicamente, y más allá de sus matices, se trata de reconfiguraciones que develan la reificación de la lectura y la escritura como contenidos de enseñanza en nombre de criterios de utilidad y realidad para los docentes y alumnos. Así, se explica que los efectos de este estado de situación van consolidando un vacío metodológico revelado a través de relatos que permiten recuperar una historia reciente de la enseñanza de la lengua y la literatura en la Argentina, de los devenires de cada una de sus perspectivas, que, en apariencia, no se cruzarían. Sin embargo, puestos en relación, muestran los hechos en los que esas perspectivas se conjugaron, acaso conjuraron, e iniciaron sus complejas, y, a veces, no tan nítidas, alianzas. No obstante, ninguna perspectiva se impone por completo. Mirados sus efectos desde el trabajo docente, se encuentra un encastre entre el textualismo cognitivista, la psicogénesis y la más reciente perspectiva sociocultural e histórica, que abonan a una argamasa de saberes desestabilizadores de la enseñanza de la lengua y la literatura como rito de institución. Por el contrario, con sus prerrogativas siempre articuladas en retóricas de "cómo debe ser la mejor enseñanza" de la lengua y la literatura, de la lectura y la escritura, suman categorías, conceptos, recortes de líneas teóricas, investigaciones, por lo general, todos disímiles, para remodelarlos en orientaciones por demás distantes y ajenas a las realizaciones cotidianas del trabajo docente.Los fundamentos aquí planteados, entonces, se circunstancian en los modos en que docentes y alumnos dicen que se realiza la enseña de la lengua y la literatura. Asimismo, se expone que una idea de cambio radical no es pertinente para la comprensión de prácticas/acciones sociales como las educativas institucionales, y que, en realidad, es necesario recuperar en sentido estricto, y de las teorías sociales, la noción de cambio como variación de la reproducción y producción social. Por lo tanto, los postulados desarrollados para una metodología circunstanciada de la enseñanza de la lengua y la literatura están pensados en ese orden de la variación y no del aplastamiento de los sentidos que, histórica y culturalmente, la constituyen e instituyen

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La metodología circunstanciada de la enseñanza de la lengua y la literatura desarrollada y argumentada a lo largo de esta investigación se presenta como un modo de renegociar los encastres de perspectivas de las didácticas de la lengua o la literatura que hoy muestran en la Argentina su historia de entramados y superposiciones de diversos estatutos de saberes. Estas reconfiguraciones, estudiadas en las últimas cuatro décadas, no son ajenas a las coyunturas políticas, ni a los mecanismos de reproducción y producción de la cultura escolar y del sistema educativo, expresados en las particularidades de la disciplina escolar. Por ello, esta metodología se articula en tres fundamentos que no sobreimprimen nuevas prerrogativas didácticas a las reconfiguraciones de la enseñanza de la lengua y la literatura que actualmente encarnan la disciplina escolar y el sistema educativo en tres de sus niveles [primario, pero con especial atención al secundario e ingresos a la educación superior]. Básicamente, y más allá de sus matices, se trata de reconfiguraciones que develan la reificación de la lectura y la escritura como contenidos de enseñanza en nombre de criterios de utilidad y realidad para los docentes y alumnos. Así, se explica que los efectos de este estado de situación van consolidando un vacío metodológico revelado a través de relatos que permiten recuperar una historia reciente de la enseñanza de la lengua y la literatura en la Argentina, de los devenires de cada una de sus perspectivas, que, en apariencia, no se cruzarían. Sin embargo, puestos en relación, muestran los hechos en los que esas perspectivas se conjugaron, acaso conjuraron, e iniciaron sus complejas, y, a veces, no tan nítidas, alianzas. No obstante, ninguna perspectiva se impone por completo. Mirados sus efectos desde el trabajo docente, se encuentra un encastre entre el textualismo cognitivista, la psicogénesis y la más reciente perspectiva sociocultural e histórica, que abonan a una argamasa de saberes desestabilizadores de la enseñanza de la lengua y la literatura como rito de institución. Por el contrario, con sus prerrogativas siempre articuladas en retóricas de "cómo debe ser la mejor enseñanza" de la lengua y la literatura, de la lectura y la escritura, suman categorías, conceptos, recortes de líneas teóricas, investigaciones, por lo general, todos disímiles, para remodelarlos en orientaciones por demás distantes y ajenas a las realizaciones cotidianas del trabajo docente.Los fundamentos aquí planteados, entonces, se circunstancian en los modos en que docentes y alumnos dicen que se realiza la enseña de la lengua y la literatura. Asimismo, se expone que una idea de cambio radical no es pertinente para la comprensión de prácticas/acciones sociales como las educativas institucionales, y que, en realidad, es necesario recuperar en sentido estricto, y de las teorías sociales, la noción de cambio como variación de la reproducción y producción social. Por lo tanto, los postulados desarrollados para una metodología circunstanciada de la enseñanza de la lengua y la literatura están pensados en ese orden de la variación y no del aplastamiento de los sentidos que, histórica y culturalmente, la constituyen e instituyen

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La metodología circunstanciada de la enseñanza de la lengua y la literatura desarrollada y argumentada a lo largo de esta investigación se presenta como un modo de renegociar los encastres de perspectivas de las didácticas de la lengua o la literatura que hoy muestran en la Argentina su historia de entramados y superposiciones de diversos estatutos de saberes. Estas reconfiguraciones, estudiadas en las últimas cuatro décadas, no son ajenas a las coyunturas políticas, ni a los mecanismos de reproducción y producción de la cultura escolar y del sistema educativo, expresados en las particularidades de la disciplina escolar. Por ello, esta metodología se articula en tres fundamentos que no sobreimprimen nuevas prerrogativas didácticas a las reconfiguraciones de la enseñanza de la lengua y la literatura que actualmente encarnan la disciplina escolar y el sistema educativo en tres de sus niveles [primario, pero con especial atención al secundario e ingresos a la educación superior]. Básicamente, y más allá de sus matices, se trata de reconfiguraciones que develan la reificación de la lectura y la escritura como contenidos de enseñanza en nombre de criterios de utilidad y realidad para los docentes y alumnos. Así, se explica que los efectos de este estado de situación van consolidando un vacío metodológico revelado a través de relatos que permiten recuperar una historia reciente de la enseñanza de la lengua y la literatura en la Argentina, de los devenires de cada una de sus perspectivas, que, en apariencia, no se cruzarían. Sin embargo, puestos en relación, muestran los hechos en los que esas perspectivas se conjugaron, acaso conjuraron, e iniciaron sus complejas, y, a veces, no tan nítidas, alianzas. No obstante, ninguna perspectiva se impone por completo. Mirados sus efectos desde el trabajo docente, se encuentra un encastre entre el textualismo cognitivista, la psicogénesis y la más reciente perspectiva sociocultural e histórica, que abonan a una argamasa de saberes desestabilizadores de la enseñanza de la lengua y la literatura como rito de institución. Por el contrario, con sus prerrogativas siempre articuladas en retóricas de "cómo debe ser la mejor enseñanza" de la lengua y la literatura, de la lectura y la escritura, suman categorías, conceptos, recortes de líneas teóricas, investigaciones, por lo general, todos disímiles, para remodelarlos en orientaciones por demás distantes y ajenas a las realizaciones cotidianas del trabajo docente.Los fundamentos aquí planteados, entonces, se circunstancian en los modos en que docentes y alumnos dicen que se realiza la enseña de la lengua y la literatura. Asimismo, se expone que una idea de cambio radical no es pertinente para la comprensión de prácticas/acciones sociales como las educativas institucionales, y que, en realidad, es necesario recuperar en sentido estricto, y de las teorías sociales, la noción de cambio como variación de la reproducción y producción social. Por lo tanto, los postulados desarrollados para una metodología circunstanciada de la enseñanza de la lengua y la literatura están pensados en ese orden de la variación y no del aplastamiento de los sentidos que, histórica y culturalmente, la constituyen e instituyen

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El Grupo de Diseño Electrónico y Microelectrónico de la Universidad Politécnica de Madrid -GDEM- se dedica, entre otras cosas, al estudio y mejora del consumo en sistemas empotrados. Es en este lugar y sobre este tema donde el proyecto a exponer ha tomado forma y desarrollo. Según un artículo de la revista online Revista de Electrónica Embebida, un sistema empotrado o embebido es aquel “sistema controlado por un microprocesador y que gracias a la programación que incorpora o que se le debe incorporar, realiza una función específica para la que ha sido diseñado, integrando en su interior la mayoría de los elementos necesarios para realizar dicho función”. El porqué de estudiar sobre este tema responde a que, cada vez, hay mayor presencia de sistemas empotrados en nuestra vida cotidiana. Esto es debido a que se está tendiendo a dotar de “inteligencia” a todo lo que puedan hacer nuestra vida un poco más fácil. Nos podemos encontrar dichos sistemas en fábricas, oficinas de atención a los ciudadanos, sistemas de seguridad de hogar, relojes, móviles, lavadoras, hornos, aspiradores y un largo etcétera en cualquier aparato que nos podamos imaginar. A pesar de sus grandes ventajas, aún hay grandes inconvenientes. El mayor problema que supone a día de hoy es la autonomía del mismo sistema, ya que hablamos de aparatos que muchas veces están alimentados por baterías -para ayudar a su portabilidad–. Por esto, se está intentando dotar a dichos sistemas de una capacidad de ahorro de energía y toma de decisiones que podrían ayudar a duplicar la autonomía de dicha batería. Un ejemplo claro son los Smartphones de hoy en día, unos aparatos casi indispensables que pueden tener una autonomía de un día. Esto es poco práctico para el usuario en caso de viajes, trabajo u otras situaciones en las que se le dé mucho uso y no pueda tener acceso a una red eléctrica. Es por esto que surge la necesidad de investigar, sin necesidad de mejorar el hardware del sistema, una manera de mejorar esta situación. Este proyecto trabajará en esa línea creando un sistema automático de medida el cual generará las corrientes que servirán como entrada para verificar el sistema de adquisición que junto con la tarjeta Beagle Board permitirá la toma de decisiones en relación con el consumo de energía. Para realizar este sistema, nos ayudaremos de diferentes herramientas que podremos encontrar en el laboratorio del GDEM, como la fuente de alimentación Agilent y la Beagle Board –como principales herramientas de trabajo- . El objetivo principal será la simulación de unas señales que, después de pasar un proceso de conversión y tratado, harán la función de representación del consumo de cada una de las partes que pueden formar un sistema empotrado genérico. Por lo tanto, podemos decir que el sistema hará la funcionalidad de un banco de pruebas que ayudará a simular dicho consumo para que el microprocesador del sistema pueda llegar a tomar alguna decisión. ABSTRACT. The Electronic and Microelectronic Design Group of Universidad Politécnica de Madrid -GDEM- is in charge, between other issues, of improving the embedded system’s consumption. It is in this place and about this subject where the exposed project has taken shape and development. According to an article from de online magazine Revista de Electronica Embebida, an embedded system is “the one controlled by a microprocessor and, thanks to the programing that it includes, it carries out a specific function what it has been designed for, being integrated in it the most necessary elements for realizing the already said function”. The because of studying this subject, answers that each time there is more presence of the embedded system in our daily life. This is due to the tendency of providing “intelligence” to all what can make our lives easier. We can find this kind of systems in factories, offices, security systems, watchers, mobile phones, washing machines, ovens, hoovers and, definitely, in all kind of machines what we can think of. Despite its large vantages, there are still some inconveniences. Nowadays, the most important problem is the autonomy of the system itself when machines that have to be supplied by batteries –making easier the portability-. Therefore, this project is going after a save capacity of energy for the system as well as being able to take decisions in order to duplicate batteries’ autonomy. Smartphones are a clear example. They are a very successful product but the autonomy is just one day. This is not practical for users, at all, if they have to travel, to work or to do any activity that involves a huge use of the phone without a socket nearby. That is why the need of investigating a way to improve this situation. This project is working on this line, creating an automatic system that will generate the currents for verifying the acquisition system that, with the beagle board, will help taking decisions regarding the energy’s consumption. To carry out this system, we need different tools that we can find in the laboratory of the group previously mentioned, like power supply Agilent and the Beagle Board – as main working tools –. The main goal is the simulation of some signals that, after a conversion process, will represent de consumption of each of the parts in the embedded generic system. Therefore, the system will be a testing ground that simulate the consumption, once sent to the processor, to be processed and so the microprocessor system might take some decision.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Resource analysis aims at inferring the cost of executing programs for any possible input, in terms of a given resource, such as the traditional execution steps, time ormemory, and, more recently energy consumption or user defined resources (e.g., number of bits sent over a socket, number of database accesses, number of calls to particular procedures, etc.). This is performed statically, i.e., without actually running the programs. Resource usage information is useful for a variety of optimization and verification applications, as well as for guiding software design. For example, programmers can use such information to choose different algorithmic solutions to a problem; program transformation systems can use cost information to choose between alternative transformations; parallelizing compilers can use cost estimates for granularity control, which tries to balance the overheads of task creation and manipulation against the benefits of parallelization. In this thesis we have significatively improved an existing prototype implementation for resource usage analysis based on abstract interpretation, addressing a number of relevant challenges and overcoming many limitations it presented. The goal of that prototype was to show the viability of casting the resource analysis as an abstract domain, and howit could overcome important limitations of the state-of-the-art resource usage analysis tools. For this purpose, it was implemented as an abstract domain in the abstract interpretation framework of the CiaoPP system, PLAI.We have improved both the design and implementation of the prototype, for eventually allowing an evolution of the tool to the industrial application level. The abstract operations of such tool heavily depend on the setting up and finding closed-form solutions of recurrence relations representing the resource usage behavior of program components and the whole program as well. While there exist many tools, such as Computer Algebra Systems (CAS) and libraries able to find closed-form solutions for some types of recurrences, none of them alone is able to handle all the types of recurrences arising during program analysis. In addition, there are some types of recurrences that cannot be solved by any existing tool. This clearly constitutes a bottleneck for this kind of resource usage analysis. Thus, one of the major challenges we have addressed in this thesis is the design and development of a novel modular framework for solving recurrence relations, able to combine and take advantage of the results of existing solvers. Additionally, we have developed and integrated into our novel solver a technique for finding upper-bound closed-form solutions of a special class of recurrence relations that arise during the analysis of programs with accumulating parameters. Finally, we have integrated the improved resource analysis into the CiaoPP general framework for resource usage verification, and specialized the framework for verifying energy consumption specifications of embedded imperative programs in a real application, showing the usefulness and practicality of the resulting tool.---ABSTRACT---El Análisis de recursos tiene como objetivo inferir el coste de la ejecución de programas para cualquier entrada posible, en términos de algún recurso determinado, como pasos de ejecución, tiempo o memoria, y, más recientemente, el consumo de energía o recursos definidos por el usuario (por ejemplo, número de bits enviados a través de un socket, el número de accesos a una base de datos, cantidad de llamadas a determinados procedimientos, etc.). Ello se realiza estáticamente, es decir, sin necesidad de ejecutar los programas. La información sobre el uso de recursos resulta muy útil para una gran variedad de aplicaciones de optimización y verificación de programas, así como para asistir en el diseño de los mismos. Por ejemplo, los programadores pueden utilizar dicha información para elegir diferentes soluciones algorítmicas a un problema; los sistemas de transformación de programas pueden utilizar la información de coste para elegir entre transformaciones alternativas; los compiladores paralelizantes pueden utilizar las estimaciones de coste para realizar control de granularidad, el cual trata de equilibrar el coste debido a la creación y gestión de tareas, con los beneficios de la paralelización. En esta tesis hemos mejorado de manera significativa la implementación de un prototipo existente para el análisis del uso de recursos basado en interpretación abstracta, abordando diversos desafíos relevantes y superando numerosas limitaciones que éste presentaba. El objetivo de dicho prototipo era mostrar la viabilidad de definir el análisis de recursos como un dominio abstracto, y cómo se podían superar las limitaciones de otras herramientas similares que constituyen el estado del arte. Para ello, se implementó como un dominio abstracto en el marco de interpretación abstracta presente en el sistema CiaoPP, PLAI. Hemos mejorado tanto el diseño como la implementación del mencionado prototipo para posibilitar su evolución hacia una herramienta utilizable en el ámbito industrial. Las operaciones abstractas de dicha herramienta dependen en gran medida de la generación, y posterior búsqueda de soluciones en forma cerrada, de relaciones recurrentes, las cuales modelizan el comportamiento, respecto al consumo de recursos, de los componentes del programa y del programa completo. Si bien existen actualmente muchas herramientas capaces de encontrar soluciones en forma cerrada para ciertos tipos de recurrencias, tales como Sistemas de Computación Algebraicos (CAS) y librerías de programación, ninguna de dichas herramientas es capaz de tratar, por sí sola, todos los tipos de recurrencias que surgen durante el análisis de recursos. Existen incluso recurrencias que no las puede resolver ninguna herramienta actual. Esto constituye claramente un cuello de botella para este tipo de análisis del uso de recursos. Por lo tanto, uno de los principales desafíos que hemos abordado en esta tesis es el diseño y desarrollo de un novedoso marco modular para la resolución de relaciones recurrentes, combinando y aprovechando los resultados de resolutores existentes. Además de ello, hemos desarrollado e integrado en nuestro nuevo resolutor una técnica para la obtención de cotas superiores en forma cerrada de una clase característica de relaciones recurrentes que surgen durante el análisis de programas lógicos con parámetros de acumulación. Finalmente, hemos integrado el nuevo análisis de recursos con el marco general para verificación de recursos de CiaoPP, y hemos instanciado dicho marco para la verificación de especificaciones sobre el consumo de energía de programas imperativas embarcados, mostrando la viabilidad y utilidad de la herramienta resultante en una aplicación real.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La iniciativa FIWARE ofrece un conjunto de APIs potentes que proporcionan la base para una innovación rápida y eficiente en el Internet del Futuro. Estas APIs son clave en el desarrollo de aplicaciones que usan tecnologías muy recientes e innovadoras, como el Internet de las cosas o la Gestión de Identidad en módulos de seguridad. Este documento presenta el desarrollo de una aplicación web de FIWARE usando componentes virtualizados en máquinas virtuales. La aplicación web está basada en “la fábrica de chocolate de Willy Wonka” como una implementación metafórica de una aplicación de seguridad e IoT en un entorno industrial. El componente principal es un servidor web en node.js que conecta con varios componentes de FIWARE, conocidos como “Generic Enablers”. La implementación está compuesta por dos módulos principales: el módulo de IoT y el módulo de seguridad. El módulo de IoT gestiona los sensores instalados por Willy Wonka en las salas de fábrica para monitorizar varios parámetros como, por ejemplo, la temperatura, la presión o la ocupación. El módulo de IoT crea y recibe información de contexto de los sensores virtuales. Esta información de contexto es gestionada y almacenada en un componente de FIWARE conocido como Context Broker. El Context Broker está basado en mecanismos de subscripciones que postean los datos de los sensores en la aplicación, en tiempo real y cuando estos cambian. La conexión con el cliente se produce mediante Web Sockets (socket.io). El módulo de seguridad gestiona las cuentas y la información de los usuarios, les autentica en la aplicación usando una cuenta de FIWARE y comprueba la autorización para acceder a distintos recursos. Distintos roles son creados con distintos permisos asignados. Por ejemplo, Willy Wonka puede tener acceso a todos los recursos, mientras que un Oompa Loopa encargado de la sala del chocolate solo deberías de tener acceso a los recursos de su sala. Este módulo está compuesto por tres componentes: el Gestor de Identidades, el PEP Proxy y el PDP AuthZForce. El gestor de identidades almacena las cuentas de FIWARE de los usuarios y permite la autenticación Single Sing On usando el protocolo OAuth2. Tras logearse, los usuarios autenticados reciben un token de autenticación que es usado después por el AuthZForce para comprobar el rol y permiso asociado del usuario. El PEP Proxy actúa como un servidor proxy que redirige las peticiones permitidas y bloquea las no autorizadas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo de este proyecto es la continuación del desarrollo de una plataforma web bajo el sistema WebRTC que, integrada en el ámbito académico, proporcionase un servicio en tiempo real de compartición de información tanto a alumnos como a profesores. Entre esta información posible a compartir, además de mensajes y la propia videollamada que resulta la base de la plataforma, se pueden compartir explicaciones en una pizarra, videos o presentaciones que ayuden en la interacción entre los integrantes de la plataforma. Mientras que la base de la plataforma se encontraba implementada, el sistema no resultaba útil y funcional en dicho estado debido a la multitud de errores y fallos que ocurrían durante su funcionamiento en el sistema de intercambio de información entre los módulos que componen el sistema. Por ello, el objetivo de este trabajo es introducirse en esas capas, rediseñar dicho sistema de intercambio de información entre los diferentes actores que forman parte de la plataforma e implementarlo, logrando así un producto usable para un potencial cliente a partir de este punto y abierto a futuras mejores partiendo de este estado. Para ello además de la tecnología WebRTC, se han incluido funcionalidades con Javascript, Node.JS, jQuery o Socket.IO entre otras APIs. A partir de este sistema y de estas tecnologías, un profesor puede crear un aula virtual, seleccionar los derechos que les proporciona a sus alumnos en la misma y realizar una clase por dicha plataforma sin apenas diferencia a una presencial. Pero no se limita sólo a eso, sino que pueden realizarse tutorías, debates o reuniones entre compañeros de departamento para preparar asignaturas o exámenes. Lo cual genera multitud de posibilidades, no sólo en el ámbito académico, sino fuera de él, para reuniones en empresas, cursos online… En definitiva, con la base de funcionalidades ya implementada previamente y la adición del objetivo de este trabajo de fin de grado que finaliza esas funcionalidades y rediseña e implementa el sistema de intercambio de información para que la plataforma sea 100% usable sin los problemas que el usuario se podía encontrar anteriormente, se obtiene una plataforma con un gran potencial académico con la que los usuarios, bajo la base de la videollamada, podrán encontrar un ambiente de compartición de información como si estuviesen en el mismo lugar físico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We have used a "plug and socket" targeting technique to generate a mouse model of beta 0-thalassemia in which both the b1 and b2 adult globin genes have been deleted. Mice homozygous for this deletion (Hbbth-3/Hbbth-3) die perinatally, similar to the most severe form of Cooley anemia in humans. Mice heterozygous for the deletion appear normal, but their hematologic indices show characteristics typical of severe thalassemia, including dramatically decreased hematocrit, hemoglobin, red blood cell counts, mean corpuscular volume, mean corpuscular hemoglobin, and mean corpuscular hemoglobin concentration, as well as dramatically increased reticulocyte counts, serum bilirubin concentrations, and red cell distribution widths. Tissue and organ damage typical of beta-thalassemia, such as bone deformities and splenic enlargement due to increased hematopoiesis, are also seen in the heterozygous animals, as is spontaneous iron overload in the spleen, liver, and kidneys. The mice homozygous for the b1 and b2 deletions should be of great value in developing therapies for the treatment of thalassemias in utero. The heterozygous animals will be useful for studying the pathophysiology of thalassemias and have the potential of generating a model of sickle cell anemia when mated with appropriate transgenic animals.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A alveolite seca (AS) é uma das complicações pós-operatórias mais comuns e sintomáticas na odontologia, porém, até o momento não há um protocolo de tratamento definido. O composto fenólico guaiacol (Gu) é um dos materiais utilizados para revestimento intra-alveolar devido às suas propriedades analgésicas, antioxidantes e antimicrobianas. Contudo, sua desvantagem é a dificuldade de manipulação decorrente da sua baixa estabilidade, alta volatilidade e sensibilidade à oxidação. Para melhorar suas propriedades e aumentar sua aplicabilidade clínica, um complexo de inclusão de Gu com ß-ciclodextrina (ßcd) foi desenvolvido. A formação do complexo supramolecular de Gu:ßcd foi caracterizada mediante a ressonância magnética nuclear (RMN), nos experimentos de 1H e 2D ROESY. A atividade antibacteriana do Gu e Gu:ßcd frente a Escherichia coli, Staphylococcus aureus, Streptococcus mitis, Streptococcus mutans, Streptococcus sanguis e Aggregatibacter actinomycetemcomitans foi analisada pelo método da microdiluição e sua citotoxicidade em osteoblastos de calvária de rato, foi estudado com o ensaio do MTT. O processo de reparo alveolar induzido pelo Gu:ßcd foi avaliado histologicamente após tratamento de alveolite seca em molares inferiores de ratos. A RMN mostrou correlações espaciais entre os hidrogênios internos (H3 e H5) da ßcd e os hidrogênios aromáticos, H(a) e H(b) do Gu, confirmando a formação do complexo. A complexação do Gu na ßcd potencializou seu efeito antibacteriano e reduziu sua citotoxicidade em osteoblastos. O estudo in vivo evidenciou a ocorrência de ossificação no ápice alveolar dos ratos tratados com Gu:ßcd, no 7o dia. No 14o dia, as trabéculas ósseas ocuparam também o terço médio do alvéolo e no 21o dia, todo o alvéolo se encontrava preenchido por osso neoformado. Estes resultados foram similares ao controle negativo e superiores ao controle positivo (Alvogyl®). Os benefícios obtidos pela inclusão do Gu na ßcd foram demonstrados pela melhora das propriedades biológicas do Gu in vitro e o adequado reparo alveolar in vivo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thesis (Master's)--University of Washington, 2016-06

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thesis (Ph.D.)--University of Washington, 2016-06

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper describes an experiment in designing, implementing and testing a Transport layer cluster scheduling and dispatching architecture. The motivation for the experiment was the hypothesis that a Transport layer clustering solution may offer advantantages over the existing industry-standard Network layer and Data Link Layer approaches. The critical success factors initially established to guide and evaluate the experiment were reduced dispatcher work load, reduced dispatcher internal state memory requirements, distributed denial of service resilience, and cluster software design simplicity. The functional design stage of the experiment produced a Transport layer strategy for scheduling and load balancing based on the specification of two new TCP options. Implementation required the introduction of the newly specified TCP options into the Linux (2.4) kernel. The implementation produced an extended Linux Socket API to facilitate user-process access to the additional TCP capability. The testing stage of the experiment confirmed the operational efficiency of the solution.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Today, the development of domain-specific communication applications is both time-consuming and error-prone because the low-level communication services provided by the existing systems and networks are primitive and often heterogeneous. Multimedia communication applications are typically built on top of low-level network abstractions such as TCP/UDP socket, SIP (Session Initiation Protocol) and RTP (Real-time Transport Protocol) APIs. The User-centric Communication Middleware (UCM) is proposed to encapsulate the networking complexity and heterogeneity of basic multimedia and multi-party communication for upper-layer communication applications. And UCM provides a unified user-centric communication service to diverse communication applications ranging from a simple phone call and video conferencing to specialized communication applications like disaster management and telemedicine. It makes it easier to the development of domain-specific communication applications. The UCM abstraction and API is proposed to achieve these goals. The dissertation also tries to integrate the formal method into UCM development process. The formal model is created for UCM using SAM methodology. Some design errors are found during model creation because the formal method forces to give the precise description of UCM. By using the SAM tool, formal UCM model is translated to Promela formula model. In the dissertation, some system properties are defined as temporal logic formulas. These temporal logic formulas are manually translated to promela formulas which are individually integrated with promela formula model of UCM and verified using SPIN tool. Formal analysis used here helps verify the system properties (for example multiparty multimedia protocol) and dig out the bugs of systems.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Supervisory Control & Data Acquisition (SCADA) systems are used by many industries because of their ability to manage sensors and control external hardware. The problem with commercially available systems is that they are restricted to a local network of users that use proprietary software. There was no Internet development guide to give remote users out of the network, control and access to SCADA data and external hardware through simple user interfaces. To solve this problem a server/client paradigm was implemented to make SCADAs available via the Internet. Two methods were applied and studied: polling of a text file as a low-end technology solution and implementing a Transmission Control Protocol (TCP/IP) socket connection. Users were allowed to login to a website and control remotely a network of pumps and valves interfaced to a SCADA. This enabled them to sample the water quality of different reservoir wells. The results were based on real time performance, stability and ease of use of the remote interface and its programming. These indicated that the most feasible server to implement is the TCP/IP connection. For the user interface, Java applets and Active X controls provide the same real time access.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente lavoro consiste nella realizzazione di un'interfaccia utente adibita all'assegnamento di missioni e al monitoraggio remoto di un rover agricolo autonomo. Sfruttando l'informatica per la sua implementazione, tale interfaccia trova invece applicazione nel campo dell'automazione e dell'agricoltura di precisione. L'utilizzatore ha perciò la facoltà di muovere il rover in campo aperto e di demandargli missioni specifiche, ricevendo allo stesso tempo un feedback continuo sul suo operato. L'applicativo software comunica quindi in maniera bidirezionale con il veicolo controllato ed è predisposto per sfruttare diversi canali di comunicazione (antenne seriali, pacchetti udp, socket tcp). La scrittura del codice è stata seguita da una serie di prove di comunicazione con il veicolo, effettuate indoor, e infine da alcuni test completi effettuati outdoor, con il rover in movimento.