253 resultados para Socket


Relevância:

10.00% 10.00%

Publicador:

Resumo:

BACKGROUND: The inevitable detachment of tendons and the loss of the forefoot in Chopart and Lisfranc amputations result in equinus and varus of the residual foot. In an insensate foot these deformities can lead to keratotic lesions and ulcerations. The currently available prostheses cannot safely counteract the deforming forces and the resulting complications. METHODS: A new below-knee prosthesis was developed, combining a soft socket with a rigid shaft. The mold is taken with the foot in the corrected position. After manufacturing the shaft, the lateral third of the circumference of the shaft is cut away and reattached distally with a hinge, creating a lateral flap. By closing this flap the hindfoot is gently levered from the varus position into valgus. Ten patients (seven amputations at the Chopart-level, three amputations at the Lisfranc-level) with insensate feet were fitted with this prosthesis at an average of 3 (range 1.5 to 9) months after amputation. The handling, comfort, time of daily use, mobility, correction of malposition and complications were recorded to the latest followup (average 31 months, range 24 to 37 months after amputation). RESULTS: Eight patients evaluated the handling as easy, two as difficult. No patient felt discomfort in the prosthesis. The average time of daily use was 12 hours, and all patients were able to walk. All varus deformities were corrected in the prosthesis. Sagittal alignment was kept neutral. Complications were two minor skin lesions and one small ulcer, all of which responded to conservative treatment, and one ulcer healed after debridement and lengthening of the Achilles tendon. CONCLUSIONS: The "flap-shaft" prosthesis is a valuable option for primary or secondary prosthetic fitting of Chopart-level and Lisfranc-level amputees with insensate feet and flexible equinus and varus deformity at risk for recurrent ulceration. It provided safe and sufficient correction of malpositions and enabled the patients to walk as much as their general condition permitted.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

BACKGROUND: Calcaneonavicular coalitions (CNC) have been reported to be associated with anatomical aberrations of either the calcaneus and/or navicular bones. These morphological abnormalities may complicate accurate surgical resection. Three-dimensional analysis of spatial orientation and morphological characteristics may help in preoperative planning of resection. MATERIALS AND METHODS: Sixteen feet with a diagnosis of CNC were evaluated by means of 3-D CT modeling. Three angles were defined that were expressed in relation to one reproducible landmark (lateral border of the calcaneus): the dorsoplantar inclination, anteroposterior inclination, and socket angle. The depth and width of the coalitions were measured and calculated to obtain the estimated contact surface. Three-dimensional reconstructions of the calcanei served to evaluate the presence, distortion or absence of the anterior calcaneal facet and presence of a navicular beak. The interrater correlations were assessed in order to obtain values for the accuracy of the measurement methods. Sixteen normal feet were used as controls for comparison of the socket angle; anatomy of the anterior calcaneal facet and navicular beak as well. RESULTS: The dorsoplantar inclination angle averaged 50 degrees (+/-17), the anteroposterior inclination angle 64 degrees (+/-15), and the pathologic socket angle 98 degrees (+/-11). The average contact area was 156 mm(2). Ninety-four percent of all patients in the CNC group revealed a plantar navicular beak. In 50% of those patients the anterior calcaneal facet was replaced by the navicular portion and in 44% the facet was totally missing. In contrast, the socket angle in the control group averaged 77 degrees (+/-18), which was found to be statistically different than the CNC group (p = 0.0004). Only 25% of the patients in the control group had a plantar navicular beak. High, statistically significant interrater correlations were found for all measured angles. CONCLUSION: Computer-aided CT analysis and reconstructions help to determine the spatial orientations of CNC in space and provide useful information in order to anticipate morphological abnormalities of the calcaneus and navicular.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The radical changes in prosthetic design made in the mid 1980s transformed the historically poorly performing reverse ball-and-socket total shoulder prosthesis into a highly successful salvage implant for pseudoparalytic, severely rotator cuff-deficient shoulders. Moving the center of rotation more medial and distal as well as implanting a large glenoid hemisphere that articulates with a humeral cup in 155 degrees of valgus are the biomechanical keys to sometimes spectacular short- to mid-term results. Use of the reverse total shoulder arthroplasty device allows salvage of injuries that previously were beyond surgical treatment. However, this technique has a complication rate approximately three times that of conventional arthroplasty. Radiographic and clinical results appear to deteriorate over time. Proper patient selection and attention to technical details are needed to reduce the currently high complication rate.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

AIM: To assess dimensional ridge alterations following immediate implant placement in molar extraction sites. MATERIAL AND METHODS: Twelve subjects received 12 immediate transmucosal implants in molar extraction sites. Peri-implant defects were treated according to the principles of Guided Bone Regeneration by means of a deproteinized bone substitute and a bioresorbable collagen membrane. Changes in vertical (IS-BD, CREST-BD) and horizontal distances (EC-I, IC-I) of alveolar bony walls to the bottom of the defects (BD) and to the implant surfaces (I) were compared between implant placement and surgical re-entry at 6 months. RESULTS: The implant survival rate at 6 months was 100%. Statistically significant differences (P<0.01) were observed in the mean changes in vertical distances IS-BD and CREST-BD between baseline and re-entry. At re-entry, all peri-implant marginal defects assessed from the internal socket wall to the implant surface (IC-I) were healed. The residual combined thickness of the buccal wall with the newly formed peri-implant bone at sites with an initial thickness of 1 mm was statistically significantly smaller (P<0.05) compared with that of sites with an initial buccal thickness of 2 mm (2.50 +/- 0.76 vs. 4+/-0 mm). CONCLUSIONS: The marginal defects around immediate implants placed in molar extraction sites were completely filled after 6 months of healing through de novo bone formation. Bone resorption was observed from the external aspects of the buccal and oral socket walls. Dimensional changes of the external socket walls were mostly pronounced at the buccal aspects.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Robotic exoskeletons can be used to study and treat patients with neurological impairments. They can guide and support the human limb over a large range of motion, which requires that the movement trajectory of the exoskeleton coincide with the one of the human arm. This is straightforward to achieve for rather simple joints like the elbow, but very challenging for complex joints like the human shoulder, which is comprised by several bones and can exhibit a movement with multiple rotational and translational degrees of freedom. Thus, several research groups have developed different shoulder actuation mechanism. However, there are no experimental studies that directly compare the comfort of two different shoulder actuation mechanisms. In this study, the comfort and the naturalness of the new shoulder actuation mechanism of the ARMin III exoskeleton are compared to a ball-and-socket-type shoulder actuation. The study was conducted in 20 healthy subjects using questionnaires and 3D-motion records to assess comfort and naturalness. The results indicate that the new shoulder actuation is slightly better than a ball-and-socket-type actuation. However, the differences are small, and under the tested conditions, the comfort and the naturalness of the two tested shoulder actuations do not differ a lot.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

PURPOSE The objectives of this systematic review are (1) to quantitatively estimate the esthetic outcomes of implants placed in postextraction sites, and (2) to evaluate the influence of simultaneous bone augmentation procedures on these outcomes. MATERIALS AND METHODS Electronic and manual searches of the dental literature were performed to collect information on esthetic outcomes based on objective criteria with implants placed after extraction of maxillary anterior and premolar teeth. All levels of evidence were accepted (case series studies required a minimum of 5 cases). RESULTS From 1,686 titles, 114 full-text articles were evaluated and 50 records included for data extraction. The included studies reported on single-tooth implants adjacent to natural teeth, with no studies on multiple missing teeth identified (6 randomized controlled trials, 6 cohort studies, 5 cross-sectional studies, and 33 case series studies). Considerable heterogeneity in study design was found. A meta-analysis of controlled studies was not possible. The available evidence suggests that esthetic outcomes, determined by esthetic indices (predominantly the pink esthetic score) and positional changes of the peri-implant mucosa, may be achieved for single-tooth implants placed after tooth extraction. Immediate (type 1) implant placement, however, is associated with a greater variability in outcomes and a higher frequency of recession of > 1 mm of the midfacial mucosa (eight studies; range 9% to 41% and median 26% of sites, 1 to 3 years after placement) compared to early (type 2 and type 3) implant placement (2 studies; no sites with recession > 1 mm). In two retrospective studies of immediate (type 1) implant placement with bone graft, the facial bone wall was not detectable on cone beam CT in 36% and 57% of sites. These sites had more recession of the midfacial mucosa compared to sites with detectable facial bone. Two studies of early implant placement (types 2 and 3) combined with simultaneous bone augmentation with GBR (contour augmentation) demonstrated a high frequency (above 90%) of facial bone wall visible on CBCT. Recent studies of immediate (type 1) placement imposed specific selection criteria, including thick tissue biotype and an intact facial socket wall, to reduce esthetic risk. There were no specific selection criteria for early (type 2 and type 3) implant placement. CONCLUSIONS Acceptable esthetic outcomes may be achieved with implants placed after extraction of teeth in the maxillary anterior and premolar areas of the dentition. Recession of the midfacial mucosa is a risk with immediate (type 1) placement. Further research is needed to investigate the most suitable biomaterials to reconstruct the facial bone and the relationship between long-term mucosal stability and presence/absence of the facial bone, the thickness of the facial bone, and the position of the facial bone crest.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La metodología circunstanciada de la enseñanza de la lengua y la literatura desarrollada y argumentada a lo largo de esta investigación se presenta como un modo de renegociar los encastres de perspectivas de las didácticas de la lengua o la literatura que hoy muestran en la Argentina su historia de entramados y superposiciones de diversos estatutos de saberes. Estas reconfiguraciones, estudiadas en las últimas cuatro décadas, no son ajenas a las coyunturas políticas, ni a los mecanismos de reproducción y producción de la cultura escolar y del sistema educativo, expresados en las particularidades de la disciplina escolar. Por ello, esta metodología se articula en tres fundamentos que no sobreimprimen nuevas prerrogativas didácticas a las reconfiguraciones de la enseñanza de la lengua y la literatura que actualmente encarnan la disciplina escolar y el sistema educativo en tres de sus niveles [primario, pero con especial atención al secundario e ingresos a la educación superior]. Básicamente, y más allá de sus matices, se trata de reconfiguraciones que develan la reificación de la lectura y la escritura como contenidos de enseñanza en nombre de criterios de utilidad y realidad para los docentes y alumnos. Así, se explica que los efectos de este estado de situación van consolidando un vacío metodológico revelado a través de relatos que permiten recuperar una historia reciente de la enseñanza de la lengua y la literatura en la Argentina, de los devenires de cada una de sus perspectivas, que, en apariencia, no se cruzarían. Sin embargo, puestos en relación, muestran los hechos en los que esas perspectivas se conjugaron, acaso conjuraron, e iniciaron sus complejas, y, a veces, no tan nítidas, alianzas. No obstante, ninguna perspectiva se impone por completo. Mirados sus efectos desde el trabajo docente, se encuentra un encastre entre el textualismo cognitivista, la psicogénesis y la más reciente perspectiva sociocultural e histórica, que abonan a una argamasa de saberes desestabilizadores de la enseñanza de la lengua y la literatura como rito de institución. Por el contrario, con sus prerrogativas siempre articuladas en retóricas de "cómo debe ser la mejor enseñanza" de la lengua y la literatura, de la lectura y la escritura, suman categorías, conceptos, recortes de líneas teóricas, investigaciones, por lo general, todos disímiles, para remodelarlos en orientaciones por demás distantes y ajenas a las realizaciones cotidianas del trabajo docente.Los fundamentos aquí planteados, entonces, se circunstancian en los modos en que docentes y alumnos dicen que se realiza la enseña de la lengua y la literatura. Asimismo, se expone que una idea de cambio radical no es pertinente para la comprensión de prácticas/acciones sociales como las educativas institucionales, y que, en realidad, es necesario recuperar en sentido estricto, y de las teorías sociales, la noción de cambio como variación de la reproducción y producción social. Por lo tanto, los postulados desarrollados para una metodología circunstanciada de la enseñanza de la lengua y la literatura están pensados en ese orden de la variación y no del aplastamiento de los sentidos que, histórica y culturalmente, la constituyen e instituyen

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La metodología circunstanciada de la enseñanza de la lengua y la literatura desarrollada y argumentada a lo largo de esta investigación se presenta como un modo de renegociar los encastres de perspectivas de las didácticas de la lengua o la literatura que hoy muestran en la Argentina su historia de entramados y superposiciones de diversos estatutos de saberes. Estas reconfiguraciones, estudiadas en las últimas cuatro décadas, no son ajenas a las coyunturas políticas, ni a los mecanismos de reproducción y producción de la cultura escolar y del sistema educativo, expresados en las particularidades de la disciplina escolar. Por ello, esta metodología se articula en tres fundamentos que no sobreimprimen nuevas prerrogativas didácticas a las reconfiguraciones de la enseñanza de la lengua y la literatura que actualmente encarnan la disciplina escolar y el sistema educativo en tres de sus niveles [primario, pero con especial atención al secundario e ingresos a la educación superior]. Básicamente, y más allá de sus matices, se trata de reconfiguraciones que develan la reificación de la lectura y la escritura como contenidos de enseñanza en nombre de criterios de utilidad y realidad para los docentes y alumnos. Así, se explica que los efectos de este estado de situación van consolidando un vacío metodológico revelado a través de relatos que permiten recuperar una historia reciente de la enseñanza de la lengua y la literatura en la Argentina, de los devenires de cada una de sus perspectivas, que, en apariencia, no se cruzarían. Sin embargo, puestos en relación, muestran los hechos en los que esas perspectivas se conjugaron, acaso conjuraron, e iniciaron sus complejas, y, a veces, no tan nítidas, alianzas. No obstante, ninguna perspectiva se impone por completo. Mirados sus efectos desde el trabajo docente, se encuentra un encastre entre el textualismo cognitivista, la psicogénesis y la más reciente perspectiva sociocultural e histórica, que abonan a una argamasa de saberes desestabilizadores de la enseñanza de la lengua y la literatura como rito de institución. Por el contrario, con sus prerrogativas siempre articuladas en retóricas de "cómo debe ser la mejor enseñanza" de la lengua y la literatura, de la lectura y la escritura, suman categorías, conceptos, recortes de líneas teóricas, investigaciones, por lo general, todos disímiles, para remodelarlos en orientaciones por demás distantes y ajenas a las realizaciones cotidianas del trabajo docente.Los fundamentos aquí planteados, entonces, se circunstancian en los modos en que docentes y alumnos dicen que se realiza la enseña de la lengua y la literatura. Asimismo, se expone que una idea de cambio radical no es pertinente para la comprensión de prácticas/acciones sociales como las educativas institucionales, y que, en realidad, es necesario recuperar en sentido estricto, y de las teorías sociales, la noción de cambio como variación de la reproducción y producción social. Por lo tanto, los postulados desarrollados para una metodología circunstanciada de la enseñanza de la lengua y la literatura están pensados en ese orden de la variación y no del aplastamiento de los sentidos que, histórica y culturalmente, la constituyen e instituyen

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La metodología circunstanciada de la enseñanza de la lengua y la literatura desarrollada y argumentada a lo largo de esta investigación se presenta como un modo de renegociar los encastres de perspectivas de las didácticas de la lengua o la literatura que hoy muestran en la Argentina su historia de entramados y superposiciones de diversos estatutos de saberes. Estas reconfiguraciones, estudiadas en las últimas cuatro décadas, no son ajenas a las coyunturas políticas, ni a los mecanismos de reproducción y producción de la cultura escolar y del sistema educativo, expresados en las particularidades de la disciplina escolar. Por ello, esta metodología se articula en tres fundamentos que no sobreimprimen nuevas prerrogativas didácticas a las reconfiguraciones de la enseñanza de la lengua y la literatura que actualmente encarnan la disciplina escolar y el sistema educativo en tres de sus niveles [primario, pero con especial atención al secundario e ingresos a la educación superior]. Básicamente, y más allá de sus matices, se trata de reconfiguraciones que develan la reificación de la lectura y la escritura como contenidos de enseñanza en nombre de criterios de utilidad y realidad para los docentes y alumnos. Así, se explica que los efectos de este estado de situación van consolidando un vacío metodológico revelado a través de relatos que permiten recuperar una historia reciente de la enseñanza de la lengua y la literatura en la Argentina, de los devenires de cada una de sus perspectivas, que, en apariencia, no se cruzarían. Sin embargo, puestos en relación, muestran los hechos en los que esas perspectivas se conjugaron, acaso conjuraron, e iniciaron sus complejas, y, a veces, no tan nítidas, alianzas. No obstante, ninguna perspectiva se impone por completo. Mirados sus efectos desde el trabajo docente, se encuentra un encastre entre el textualismo cognitivista, la psicogénesis y la más reciente perspectiva sociocultural e histórica, que abonan a una argamasa de saberes desestabilizadores de la enseñanza de la lengua y la literatura como rito de institución. Por el contrario, con sus prerrogativas siempre articuladas en retóricas de "cómo debe ser la mejor enseñanza" de la lengua y la literatura, de la lectura y la escritura, suman categorías, conceptos, recortes de líneas teóricas, investigaciones, por lo general, todos disímiles, para remodelarlos en orientaciones por demás distantes y ajenas a las realizaciones cotidianas del trabajo docente.Los fundamentos aquí planteados, entonces, se circunstancian en los modos en que docentes y alumnos dicen que se realiza la enseña de la lengua y la literatura. Asimismo, se expone que una idea de cambio radical no es pertinente para la comprensión de prácticas/acciones sociales como las educativas institucionales, y que, en realidad, es necesario recuperar en sentido estricto, y de las teorías sociales, la noción de cambio como variación de la reproducción y producción social. Por lo tanto, los postulados desarrollados para una metodología circunstanciada de la enseñanza de la lengua y la literatura están pensados en ese orden de la variación y no del aplastamiento de los sentidos que, histórica y culturalmente, la constituyen e instituyen

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El Grupo de Diseño Electrónico y Microelectrónico de la Universidad Politécnica de Madrid -GDEM- se dedica, entre otras cosas, al estudio y mejora del consumo en sistemas empotrados. Es en este lugar y sobre este tema donde el proyecto a exponer ha tomado forma y desarrollo. Según un artículo de la revista online Revista de Electrónica Embebida, un sistema empotrado o embebido es aquel “sistema controlado por un microprocesador y que gracias a la programación que incorpora o que se le debe incorporar, realiza una función específica para la que ha sido diseñado, integrando en su interior la mayoría de los elementos necesarios para realizar dicho función”. El porqué de estudiar sobre este tema responde a que, cada vez, hay mayor presencia de sistemas empotrados en nuestra vida cotidiana. Esto es debido a que se está tendiendo a dotar de “inteligencia” a todo lo que puedan hacer nuestra vida un poco más fácil. Nos podemos encontrar dichos sistemas en fábricas, oficinas de atención a los ciudadanos, sistemas de seguridad de hogar, relojes, móviles, lavadoras, hornos, aspiradores y un largo etcétera en cualquier aparato que nos podamos imaginar. A pesar de sus grandes ventajas, aún hay grandes inconvenientes. El mayor problema que supone a día de hoy es la autonomía del mismo sistema, ya que hablamos de aparatos que muchas veces están alimentados por baterías -para ayudar a su portabilidad–. Por esto, se está intentando dotar a dichos sistemas de una capacidad de ahorro de energía y toma de decisiones que podrían ayudar a duplicar la autonomía de dicha batería. Un ejemplo claro son los Smartphones de hoy en día, unos aparatos casi indispensables que pueden tener una autonomía de un día. Esto es poco práctico para el usuario en caso de viajes, trabajo u otras situaciones en las que se le dé mucho uso y no pueda tener acceso a una red eléctrica. Es por esto que surge la necesidad de investigar, sin necesidad de mejorar el hardware del sistema, una manera de mejorar esta situación. Este proyecto trabajará en esa línea creando un sistema automático de medida el cual generará las corrientes que servirán como entrada para verificar el sistema de adquisición que junto con la tarjeta Beagle Board permitirá la toma de decisiones en relación con el consumo de energía. Para realizar este sistema, nos ayudaremos de diferentes herramientas que podremos encontrar en el laboratorio del GDEM, como la fuente de alimentación Agilent y la Beagle Board –como principales herramientas de trabajo- . El objetivo principal será la simulación de unas señales que, después de pasar un proceso de conversión y tratado, harán la función de representación del consumo de cada una de las partes que pueden formar un sistema empotrado genérico. Por lo tanto, podemos decir que el sistema hará la funcionalidad de un banco de pruebas que ayudará a simular dicho consumo para que el microprocesador del sistema pueda llegar a tomar alguna decisión. ABSTRACT. The Electronic and Microelectronic Design Group of Universidad Politécnica de Madrid -GDEM- is in charge, between other issues, of improving the embedded system’s consumption. It is in this place and about this subject where the exposed project has taken shape and development. According to an article from de online magazine Revista de Electronica Embebida, an embedded system is “the one controlled by a microprocessor and, thanks to the programing that it includes, it carries out a specific function what it has been designed for, being integrated in it the most necessary elements for realizing the already said function”. The because of studying this subject, answers that each time there is more presence of the embedded system in our daily life. This is due to the tendency of providing “intelligence” to all what can make our lives easier. We can find this kind of systems in factories, offices, security systems, watchers, mobile phones, washing machines, ovens, hoovers and, definitely, in all kind of machines what we can think of. Despite its large vantages, there are still some inconveniences. Nowadays, the most important problem is the autonomy of the system itself when machines that have to be supplied by batteries –making easier the portability-. Therefore, this project is going after a save capacity of energy for the system as well as being able to take decisions in order to duplicate batteries’ autonomy. Smartphones are a clear example. They are a very successful product but the autonomy is just one day. This is not practical for users, at all, if they have to travel, to work or to do any activity that involves a huge use of the phone without a socket nearby. That is why the need of investigating a way to improve this situation. This project is working on this line, creating an automatic system that will generate the currents for verifying the acquisition system that, with the beagle board, will help taking decisions regarding the energy’s consumption. To carry out this system, we need different tools that we can find in the laboratory of the group previously mentioned, like power supply Agilent and the Beagle Board – as main working tools –. The main goal is the simulation of some signals that, after a conversion process, will represent de consumption of each of the parts in the embedded generic system. Therefore, the system will be a testing ground that simulate the consumption, once sent to the processor, to be processed and so the microprocessor system might take some decision.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Resource analysis aims at inferring the cost of executing programs for any possible input, in terms of a given resource, such as the traditional execution steps, time ormemory, and, more recently energy consumption or user defined resources (e.g., number of bits sent over a socket, number of database accesses, number of calls to particular procedures, etc.). This is performed statically, i.e., without actually running the programs. Resource usage information is useful for a variety of optimization and verification applications, as well as for guiding software design. For example, programmers can use such information to choose different algorithmic solutions to a problem; program transformation systems can use cost information to choose between alternative transformations; parallelizing compilers can use cost estimates for granularity control, which tries to balance the overheads of task creation and manipulation against the benefits of parallelization. In this thesis we have significatively improved an existing prototype implementation for resource usage analysis based on abstract interpretation, addressing a number of relevant challenges and overcoming many limitations it presented. The goal of that prototype was to show the viability of casting the resource analysis as an abstract domain, and howit could overcome important limitations of the state-of-the-art resource usage analysis tools. For this purpose, it was implemented as an abstract domain in the abstract interpretation framework of the CiaoPP system, PLAI.We have improved both the design and implementation of the prototype, for eventually allowing an evolution of the tool to the industrial application level. The abstract operations of such tool heavily depend on the setting up and finding closed-form solutions of recurrence relations representing the resource usage behavior of program components and the whole program as well. While there exist many tools, such as Computer Algebra Systems (CAS) and libraries able to find closed-form solutions for some types of recurrences, none of them alone is able to handle all the types of recurrences arising during program analysis. In addition, there are some types of recurrences that cannot be solved by any existing tool. This clearly constitutes a bottleneck for this kind of resource usage analysis. Thus, one of the major challenges we have addressed in this thesis is the design and development of a novel modular framework for solving recurrence relations, able to combine and take advantage of the results of existing solvers. Additionally, we have developed and integrated into our novel solver a technique for finding upper-bound closed-form solutions of a special class of recurrence relations that arise during the analysis of programs with accumulating parameters. Finally, we have integrated the improved resource analysis into the CiaoPP general framework for resource usage verification, and specialized the framework for verifying energy consumption specifications of embedded imperative programs in a real application, showing the usefulness and practicality of the resulting tool.---ABSTRACT---El Análisis de recursos tiene como objetivo inferir el coste de la ejecución de programas para cualquier entrada posible, en términos de algún recurso determinado, como pasos de ejecución, tiempo o memoria, y, más recientemente, el consumo de energía o recursos definidos por el usuario (por ejemplo, número de bits enviados a través de un socket, el número de accesos a una base de datos, cantidad de llamadas a determinados procedimientos, etc.). Ello se realiza estáticamente, es decir, sin necesidad de ejecutar los programas. La información sobre el uso de recursos resulta muy útil para una gran variedad de aplicaciones de optimización y verificación de programas, así como para asistir en el diseño de los mismos. Por ejemplo, los programadores pueden utilizar dicha información para elegir diferentes soluciones algorítmicas a un problema; los sistemas de transformación de programas pueden utilizar la información de coste para elegir entre transformaciones alternativas; los compiladores paralelizantes pueden utilizar las estimaciones de coste para realizar control de granularidad, el cual trata de equilibrar el coste debido a la creación y gestión de tareas, con los beneficios de la paralelización. En esta tesis hemos mejorado de manera significativa la implementación de un prototipo existente para el análisis del uso de recursos basado en interpretación abstracta, abordando diversos desafíos relevantes y superando numerosas limitaciones que éste presentaba. El objetivo de dicho prototipo era mostrar la viabilidad de definir el análisis de recursos como un dominio abstracto, y cómo se podían superar las limitaciones de otras herramientas similares que constituyen el estado del arte. Para ello, se implementó como un dominio abstracto en el marco de interpretación abstracta presente en el sistema CiaoPP, PLAI. Hemos mejorado tanto el diseño como la implementación del mencionado prototipo para posibilitar su evolución hacia una herramienta utilizable en el ámbito industrial. Las operaciones abstractas de dicha herramienta dependen en gran medida de la generación, y posterior búsqueda de soluciones en forma cerrada, de relaciones recurrentes, las cuales modelizan el comportamiento, respecto al consumo de recursos, de los componentes del programa y del programa completo. Si bien existen actualmente muchas herramientas capaces de encontrar soluciones en forma cerrada para ciertos tipos de recurrencias, tales como Sistemas de Computación Algebraicos (CAS) y librerías de programación, ninguna de dichas herramientas es capaz de tratar, por sí sola, todos los tipos de recurrencias que surgen durante el análisis de recursos. Existen incluso recurrencias que no las puede resolver ninguna herramienta actual. Esto constituye claramente un cuello de botella para este tipo de análisis del uso de recursos. Por lo tanto, uno de los principales desafíos que hemos abordado en esta tesis es el diseño y desarrollo de un novedoso marco modular para la resolución de relaciones recurrentes, combinando y aprovechando los resultados de resolutores existentes. Además de ello, hemos desarrollado e integrado en nuestro nuevo resolutor una técnica para la obtención de cotas superiores en forma cerrada de una clase característica de relaciones recurrentes que surgen durante el análisis de programas lógicos con parámetros de acumulación. Finalmente, hemos integrado el nuevo análisis de recursos con el marco general para verificación de recursos de CiaoPP, y hemos instanciado dicho marco para la verificación de especificaciones sobre el consumo de energía de programas imperativas embarcados, mostrando la viabilidad y utilidad de la herramienta resultante en una aplicación real.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La iniciativa FIWARE ofrece un conjunto de APIs potentes que proporcionan la base para una innovación rápida y eficiente en el Internet del Futuro. Estas APIs son clave en el desarrollo de aplicaciones que usan tecnologías muy recientes e innovadoras, como el Internet de las cosas o la Gestión de Identidad en módulos de seguridad. Este documento presenta el desarrollo de una aplicación web de FIWARE usando componentes virtualizados en máquinas virtuales. La aplicación web está basada en “la fábrica de chocolate de Willy Wonka” como una implementación metafórica de una aplicación de seguridad e IoT en un entorno industrial. El componente principal es un servidor web en node.js que conecta con varios componentes de FIWARE, conocidos como “Generic Enablers”. La implementación está compuesta por dos módulos principales: el módulo de IoT y el módulo de seguridad. El módulo de IoT gestiona los sensores instalados por Willy Wonka en las salas de fábrica para monitorizar varios parámetros como, por ejemplo, la temperatura, la presión o la ocupación. El módulo de IoT crea y recibe información de contexto de los sensores virtuales. Esta información de contexto es gestionada y almacenada en un componente de FIWARE conocido como Context Broker. El Context Broker está basado en mecanismos de subscripciones que postean los datos de los sensores en la aplicación, en tiempo real y cuando estos cambian. La conexión con el cliente se produce mediante Web Sockets (socket.io). El módulo de seguridad gestiona las cuentas y la información de los usuarios, les autentica en la aplicación usando una cuenta de FIWARE y comprueba la autorización para acceder a distintos recursos. Distintos roles son creados con distintos permisos asignados. Por ejemplo, Willy Wonka puede tener acceso a todos los recursos, mientras que un Oompa Loopa encargado de la sala del chocolate solo deberías de tener acceso a los recursos de su sala. Este módulo está compuesto por tres componentes: el Gestor de Identidades, el PEP Proxy y el PDP AuthZForce. El gestor de identidades almacena las cuentas de FIWARE de los usuarios y permite la autenticación Single Sing On usando el protocolo OAuth2. Tras logearse, los usuarios autenticados reciben un token de autenticación que es usado después por el AuthZForce para comprobar el rol y permiso asociado del usuario. El PEP Proxy actúa como un servidor proxy que redirige las peticiones permitidas y bloquea las no autorizadas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo de este proyecto es la continuación del desarrollo de una plataforma web bajo el sistema WebRTC que, integrada en el ámbito académico, proporcionase un servicio en tiempo real de compartición de información tanto a alumnos como a profesores. Entre esta información posible a compartir, además de mensajes y la propia videollamada que resulta la base de la plataforma, se pueden compartir explicaciones en una pizarra, videos o presentaciones que ayuden en la interacción entre los integrantes de la plataforma. Mientras que la base de la plataforma se encontraba implementada, el sistema no resultaba útil y funcional en dicho estado debido a la multitud de errores y fallos que ocurrían durante su funcionamiento en el sistema de intercambio de información entre los módulos que componen el sistema. Por ello, el objetivo de este trabajo es introducirse en esas capas, rediseñar dicho sistema de intercambio de información entre los diferentes actores que forman parte de la plataforma e implementarlo, logrando así un producto usable para un potencial cliente a partir de este punto y abierto a futuras mejores partiendo de este estado. Para ello además de la tecnología WebRTC, se han incluido funcionalidades con Javascript, Node.JS, jQuery o Socket.IO entre otras APIs. A partir de este sistema y de estas tecnologías, un profesor puede crear un aula virtual, seleccionar los derechos que les proporciona a sus alumnos en la misma y realizar una clase por dicha plataforma sin apenas diferencia a una presencial. Pero no se limita sólo a eso, sino que pueden realizarse tutorías, debates o reuniones entre compañeros de departamento para preparar asignaturas o exámenes. Lo cual genera multitud de posibilidades, no sólo en el ámbito académico, sino fuera de él, para reuniones en empresas, cursos online… En definitiva, con la base de funcionalidades ya implementada previamente y la adición del objetivo de este trabajo de fin de grado que finaliza esas funcionalidades y rediseña e implementa el sistema de intercambio de información para que la plataforma sea 100% usable sin los problemas que el usuario se podía encontrar anteriormente, se obtiene una plataforma con un gran potencial académico con la que los usuarios, bajo la base de la videollamada, podrán encontrar un ambiente de compartición de información como si estuviesen en el mismo lugar físico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We have used a "plug and socket" targeting technique to generate a mouse model of beta 0-thalassemia in which both the b1 and b2 adult globin genes have been deleted. Mice homozygous for this deletion (Hbbth-3/Hbbth-3) die perinatally, similar to the most severe form of Cooley anemia in humans. Mice heterozygous for the deletion appear normal, but their hematologic indices show characteristics typical of severe thalassemia, including dramatically decreased hematocrit, hemoglobin, red blood cell counts, mean corpuscular volume, mean corpuscular hemoglobin, and mean corpuscular hemoglobin concentration, as well as dramatically increased reticulocyte counts, serum bilirubin concentrations, and red cell distribution widths. Tissue and organ damage typical of beta-thalassemia, such as bone deformities and splenic enlargement due to increased hematopoiesis, are also seen in the heterozygous animals, as is spontaneous iron overload in the spleen, liver, and kidneys. The mice homozygous for the b1 and b2 deletions should be of great value in developing therapies for the treatment of thalassemias in utero. The heterozygous animals will be useful for studying the pathophysiology of thalassemias and have the potential of generating a model of sickle cell anemia when mated with appropriate transgenic animals.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A alveolite seca (AS) é uma das complicações pós-operatórias mais comuns e sintomáticas na odontologia, porém, até o momento não há um protocolo de tratamento definido. O composto fenólico guaiacol (Gu) é um dos materiais utilizados para revestimento intra-alveolar devido às suas propriedades analgésicas, antioxidantes e antimicrobianas. Contudo, sua desvantagem é a dificuldade de manipulação decorrente da sua baixa estabilidade, alta volatilidade e sensibilidade à oxidação. Para melhorar suas propriedades e aumentar sua aplicabilidade clínica, um complexo de inclusão de Gu com ß-ciclodextrina (ßcd) foi desenvolvido. A formação do complexo supramolecular de Gu:ßcd foi caracterizada mediante a ressonância magnética nuclear (RMN), nos experimentos de 1H e 2D ROESY. A atividade antibacteriana do Gu e Gu:ßcd frente a Escherichia coli, Staphylococcus aureus, Streptococcus mitis, Streptococcus mutans, Streptococcus sanguis e Aggregatibacter actinomycetemcomitans foi analisada pelo método da microdiluição e sua citotoxicidade em osteoblastos de calvária de rato, foi estudado com o ensaio do MTT. O processo de reparo alveolar induzido pelo Gu:ßcd foi avaliado histologicamente após tratamento de alveolite seca em molares inferiores de ratos. A RMN mostrou correlações espaciais entre os hidrogênios internos (H3 e H5) da ßcd e os hidrogênios aromáticos, H(a) e H(b) do Gu, confirmando a formação do complexo. A complexação do Gu na ßcd potencializou seu efeito antibacteriano e reduziu sua citotoxicidade em osteoblastos. O estudo in vivo evidenciou a ocorrência de ossificação no ápice alveolar dos ratos tratados com Gu:ßcd, no 7o dia. No 14o dia, as trabéculas ósseas ocuparam também o terço médio do alvéolo e no 21o dia, todo o alvéolo se encontrava preenchido por osso neoformado. Estes resultados foram similares ao controle negativo e superiores ao controle positivo (Alvogyl®). Os benefícios obtidos pela inclusão do Gu na ßcd foram demonstrados pela melhora das propriedades biológicas do Gu in vitro e o adequado reparo alveolar in vivo.