986 resultados para specification


Relevância:

10.00% 10.00%

Publicador:

Resumo:

À l’intérieur de la cellule sillonnent d’innombrables molécules, certaines par diffusion et d’autres sur des routes moléculaires éphémères, empruntées selon les directives spécifiques de protéines responsables du trafic intracellulaire. Parmi celles-ci, on compte les sorting nexins, qui déterminent le sort de plusieurs types de protéine, comme les récepteurs, en les guidant soit vers des voies de dégradation ou de recyclage. À ce jour, il existe 33 membres des sorting nexins (Snx1-33), tous munies du domaine PX (PHOX-homology). Le domaine PX confère aux sorting nexins la capacité de détecter la présence de phosphatidylinositol phosphates (PIP), sur la surface des membranes lipidiques (ex : membrane cytoplasmique ou vésiculaire). Ces PIPs, produits de façon spécifique et transitoire, recrutent des protéines nécessaires à la progression de processus cellulaires. Par exemple, lorsqu’un récepteur est internalisé par endocytose, la région avoisinante de la membrane cytoplasmique devient occupée par PI(4,5)P2. Ceci engendre le recrutement de SNX9, qui permet la progression de l’endocytose en faisant un lien entre le cytoskelette et le complexe d’endocytose. Les recherches exposées dans cette thèse sont une description fonctionnelle de deux sorting nexins peux connues, Snx11 et Snx30. Le rôle de chacun de ces gènes a été étudié durant l’embryogenèse de la grenouille (Xenopus laevis). Suite aux résultats in vivo, une approche biomoléculaire et de culture cellulaire a été employée pour approfondir nos connaissances. Cet ouvrage démontre que Snx11 est impliqué dans le développement des somites et dans la polymérisation de l’actine. De plus, Snx11 semble influencer le recyclage de récepteurs membranaires indépendamment de l’actine. Ainsi, Snx11 pourrait jouer deux rôles intracellulaires : une régulation actine-dépendante du milieu extracellulaire et le triage de récepteurs actine-indépendant. De son côté, Snx30 est impliqué dans la différentiation cardiaque précoce par l’inhibition de la voie Wnt/β-catenin, une étape nécessaire à l’engagement d’une population de cellules du mésoderme à la ligné cardiaque. L’expression de Snx30 chez le Xénope coïncide avec cette période critique de spécification du mésoderme et le knockdown suscite des malformations cardiaques ainsi qu’à d’autres tissus dérivés du mésoderme et de l’endoderme. Cet ouvrage fournit une base pour des études futures sur Snx11 et Snx30. Ces protéines ont un impact subtil sur des voies de signalisation spécifiques. Ces caractéristiques pourraient être exploitées à des fins thérapeutiques puisque l’effet d’une interférence avec leurs fonctions pourrait être suffisant pour rétablir un déséquilibre cellulaire pathologique tout en minimisant les effets secondaires.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le contrôle des mouvements du bras fait intervenir plusieurs voies provenant du cerveau. Cette thèse, composée principalement de deux études, tente d’éclaircir les contributions des voies tirant leur origine du système vestibulaire et du cortex moteur. Dans la première étude (Raptis et al 2007), impliquant des mouvements d’atteinte, nous avons cerné l’importance des voies descendantes partant du système vestibulaire pour l’équivalence motrice, i.e. la capacité du système moteur à atteindre un but moteur donné lorsque le nombre de degrés de liberté articulaires varie. L’hypothèse émise était que le système vestibulaire joue un rôle essentiel dans l’équivalence motrice. Nous avons comparé la capacité d’équivalence motrice de sujets sains et de patients vestibulodéficients chroniques lors de mouvements nécessitant un contrôle des positions du bras et du tronc. Pendant que leur vision était temporairement bloquée, les sujets devaient soit maintenir une position de l’index pendant une flexion du tronc, soit atteindre une cible dans l’espace péri-personnel en combinant le mouvement du bras avec une flexion du tronc. Lors d’essais déterminés aléatoirement et imprévus par les participants, leur tronc était retenu par un mécanisme électromagnétique s’activant en même temps que le signal de départ. Les sujets sains ont pu préserver la position ou la trajectoire de l’index dans les deux conditions du tronc (libre, bloqué) en adaptant avec une courte latence (60-180 ms) les mouvements articulaires au niveau du coude et de l’épaule. En comparaison, six des sept patients vestibulodéficients chroniques ont présenté des déficits au plan des adaptations angulaires compensatoires. Pour ces patients, entre 30 % et 100 % du mouvement du tronc n’a pas été compensé et a été transmis à la position ou trajectoire de l’index. Ces résultats indiqueraient que les influences vestibulaires évoquées par le mouvement de la tête pendant la flexion du tronc jouent un rôle majeur pour garantir l’équivalence motrice dans ces tâches d’atteinte lorsque le nombre de degrés de liberté articulaires varie. Également, ils démontrent que la plasticité de long terme survenant spontanément après une lésion vestibulaire unilatérale complète ne serait pas suffisante pour permettre au SNC de retrouver un niveau d’équivalence motrice normal dans les actions combinant un déplacement du bras et du tronc. Ces tâches de coordination bras-tronc constituent ainsi une approche inédite et sensible pour l’évaluation clinique des déficits vestibulaires. Elles permettent de sonder une dimension fonctionnelle des influences vestibulaires qui n’était pas prise en compte dans les tests cliniques usuels, dont la sensibilité relativement limitée empêche souvent la détection d’insuffisances vestibulaires six mois après une lésion de ces voies. Avec cette première étude, nous avons donc exploré comment le cerveau et les voies descendantes intègrent des degrés de liberté articulaires supplémentaires dans le contrôle du bras. Dans la seconde étude (Raptis et al 2010), notre but était de clarifier la nature des variables spécifiées par les voies descendantes pour le contrôle d’actions motrices réalisées avec ce membre. Nous avons testé l’hypothèse selon laquelle les voies corticospinales contrôlent la position et les mouvements des bras en modulant la position-seuil (position de référence à partir de laquelle les muscles commencent à être activés en réponse à une déviation de cette référence). Selon ce principe, les voies corticospinales ne spécifieraient pas directement les patrons d’activité EMG, ce qui se refléterait par une dissociation entre l’EMG et l’excitabilité corticospinale pour des positions-seuils différentes. Dans un manipulandum, des participants (n=16) ont modifié leur angle du poignet, d’une position de flexion (45°) à une position d’extension (-25°), et vice-versa. Les forces élastiques passives des muscles ont été compensées avec un moteur couple afin que les sujets puissent égaliser leur activité EMG de base dans les deux positions. L’excitabilité motoneuronale dans ces positions a été comparée à travers l’analyse des réponses EMG évoquées à la suite d’étirements brefs. Dans les deux positions, le niveau d’EMG et l’excitabilité motoneuronale étaient semblables. De plus, ces tests ont permis de montrer que le repositionnement du poignet était associé à une translation de la position-seuil. Par contre, malgré la similitude de l’excitabilité motoneuronale dans ces positions, l’excitabilité corticospinale des muscles du poignet était significativement différente : les impulsions de stimulation magnétique transcrânienne (TMS; à 1.2 MT, sur l’aire du poignet de M1) ont provoqué des potentiels moteurs évoqués (MEP) de plus grande amplitude en flexion pour les fléchisseurs comparativement à la position d’extension et vice-versa pour les extenseurs (p<0.005 pour le groupe). Lorsque les mêmes positions étaient établies après une relaxation profonde, les réponses réflexes et les amplitudes des MEPs ont drastiquement diminué. La relation caractéristique observée entre position physique et amplitude des MEPs dans le positionnement actif s’est aussi estompée lorsque les muscles étaient relâchés. Cette étude suggère que la voie corticospinale, en association avec les autres voies descendantes, participerait au contrôle de la position-seuil, un processus qui prédéterminerait le référentiel spatial dans lequel l’activité EMG émerge. Ce contrôle de la « référence » constituerait un principe commun s’appliquant à la fois au contrôle de la force musculaire, de la position, du mouvement et de la relaxation. Nous avons aussi mis en évidence qu’il est nécessaire, dans les prochaines recherches ou applications utilisant la TMS, de prendre en compte la configuration-seuil des articulations, afin de bien interpréter les réponses musculaires (ou leurs changements) évoquées par cette technique; en effet, la configuration-seuil influencerait de manière notable l’excitabilité corticomotrice, qui peut être considérée comme un indicateur non seulement lors d’activités musculaires, mais aussi cognitives, après apprentissages moteurs ou lésions neurologiques causant des déficits moteurs (ex. spasticité, faiblesse). Considérées dans leur ensemble, ces deux études apportent un éclairage inédit sur des principes fondamentaux du contrôle moteur : nous y illustrons de manière plus large le rôle du système vestibulaire dans les tâches d’atteinte exigeant une coordination entre le bras et son « support » (le tronc) et clarifions l’implication des voies corticomotrices dans la spécification de paramètres élémentaires du contrôle moteur du bras. De plus amples recherches sont cependant nécessaires afin de mieux comprendre comment les systèmes sensoriels et descendants (e.g. vestibulo-, réticulo-, rubro-, propriospinal) participent et interagissent avec les signaux corticofugaux afin de spécifier les seuils neuromusculaires dans le contrôle de la posture et du mouvement.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les personnes ayant une aphasie, un trouble acquis du langage causé par une lésion cérébrale, parviennent temporairement à mieux prononcer des mots quand elles les chantent dans des chansons familières ou en chant choral. Dans cette thèse nous examinons comment le chant peut entrainer des bénéfices durables sur le langage et la communication de ces personnes. Deux contextes sont envisagés : (1) une thérapie chantée de l’aphasie, la Melodic intonation therapy en anglais (MIT), et (2) une activité de loisir, une chorale de personnes aphasiques. La première étude de cette thèse (Chapitre 2) est une recension critique de la variété de recherches dont la MIT a fait l’objet. Nous soutenons que plusieurs protocoles de traitement présentés sous le label MIT ne correspondent pas à la MIT originale et que les effets immédiats du chant, qui sont examinés dans des études transversales, ne devraient pas être confondus avec les effets durables, observés dans des études longitudinales. Cette grille de lecture permet de réconcilier des conclusions d’études contradictoires à propos des mécanismes de la MIT et met en évidence des questions de recherches en suspens, notamment sur la contribution relative du rythme et de la hauteur musicale dans les effets de cette thérapie, que nous traitons dans le troisième chapitre. Nous y rapportons une étude avec trois participants ayant une aphasie de Broca chronique. Trois traitements ont été comparés dans un devis en carré latin : une thérapie comportant de la parole chantée (i.e., avec rythme et hauteurs musicales) proche de la MIT originale, une thérapie équivalente avec de la parole uniquement rythmée, et une thérapie comportant de la parole normale. Puisque seule la thérapie chantée a amélioré le langage dans le discours naturel des participants, nous soutenons que le chant dans son entièreté est un élément actif de la MIT. Enfin, dans le quatrième chapitre, nous présentons la première étude de groupe contrôlée, randomisée et à simple insu tentant de déterminer si le chant pratiqué comme simple loisir peut aussi avoir un effet bénéfique dans la réadaptation de l’aphasie. Nous avons comparé les progrès en communication fonctionnelle de 17 personnes ayant différents types d’aphasies chroniques réparties dans un groupe chorale, où elles devaient participer à six mois d’activité hebdomadaire de chorale, un groupe théâtre, où elles devaient suivre un atelier de théâtre, et une liste d’attente pour ces deux activités seulement. Nos résultats ont montré une corrélation positive entre l’amélioration de la communication fonctionnelle et le nombre de présences aux activités sociales, quelles qu’elles soient, mais nous n’avons pas trouvé d’effet spécifique à l’activité de chorale. Ainsi, la pratique du chant en chorale pourrait avoir un potentiel thérapeutique général, mais pas spécifique à l’utilisation du chant. D’autres études sont toutefois nécessaires pour le confirmer. Ainsi, cette thèse soutient globalement que dans la réadaptation de l’aphasie, le chant apporte des bénéfices spécifiques sur le langage lorsqu’il est intégré dans une thérapie comme la MIT et des bénéfices comparables à d’autres activités sociales lorsqu’il est pratiqué comme activité de loisir dans une chorale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La présente recherche s’inscrit dans la mouvance actuelle orientée vers l’approche par compétences (APC) en Afrique de l’ouest. Née des exigences économiques et professionnelles à l’échelle mondiale, l’APC a connu son essor dans les années 1990. Par conséquent, le mode de recrutement sur le marché de l’emploi est basé sur les compétences des postulants. Il était donc légitime que l’école intègre cette nouvelle donne afin que les finissants puissent remplir les exigences socioprofessionnelles en temps opportun. De Ketele (2001, dans Hirtt 2009, p.6) est de cet avis quand il soutient que : « c’est en effet le monde socio-économique qui a déterminé la notion de compétence parce que les adultes que l’école a formés n’étaient pas suffisamment aptes à entrer dans la vie professionnelle ». L’APC rompt donc le caractère insulaire de l’école en faisant intervenir de nouveaux enjeux au niveau de l’enseignement, de l’apprentissage, des pratiques évaluatives des enseignants et des encadrements légaux dans les pays qui l’ont adoptée. Pour des contraintes socioéconomiques, le Burkina Faso a résolument opté de mettre en oeuvre une approche éclectique qui emprunte à l’APC certaines bases didactiques et pédagogiques. Cette option vise à doter le système éducatif burkinabé de mécanismes efficaces et efficients pour un enseignement de qualité tout en assurant la réussite et l’intégration socioprofessionnelle du plus grand nombre des sortants de l’école. Notre étude se situe dans cette nouvelle donne et vise l’amélioration du processus d’évaluation des élèves en fin du cycle primaire. Pour ce faire, nous avons conçu et validé un guide d’élaboration d’épreuves de mathématique dans une visée certificative pour ledit niveau afin de soutenir prioritairement les agents chargés de l’élaboration des épreuves officielles. En nous basant sur le paradigme de l’apprentissage, le constructivisme et la démarche méthodologique de Loiselle et Harvey (2009), nous avons examiné, dans un premier temps, les épreuves nationales développées au Québec et au Burkina Faso. Cette analyse a permis d’en relever les caractéristiques et d’identifier les éléments devant être retenus dans le cahier des charges au regard du profil des sortants défini dans le programme burkinabé. Dans un deuxième temps, un cahier des charges (version initiale.) a été développé en quatre sections afin de présenter les principes qui le sous-tendent : (1) l’élaboration des situations d’évaluation, (2) l’élaboration des outils d’administration de l’épreuve, (3) l’élaboration des outils de correction et de consignation et (4) les grilles d’évaluation. Dans un troisième temps, un groupe d’experts canadiens et deux groupes d’experts burkinabé se sont exprimés sur le degré de pertinence et de clarté de chaque section à partir de l’une ou l’autre version du Guide. Leurs observations et commentaires nous ont permis de le bonifier. D’une manière générale, les pourcentages des degrés d’accord pour la pertinence et la clarté des contenus développés au niveau de chaque section sont satisfaisants. Cependant, les recommandations des experts ont suscité des ajustements sur : 1) le contenu du guide soit de conserver une seule épreuve en mathématiques et de retirer les énoncés concernant les volets lecture et écriture en français; 2) le contenu de certains tableaux : à compléter ou à fusionner et; 3) la qualité de la langue : certaines phrases ont été reformulées, les erreurs de numérotation de certaines sous-sections ont été corrigées. La version finale serait celle qui est adaptée au contexte burkinabé. Ce guide est destiné aux structures chargées de l’évaluation des apprentissages et des acquis des élèves au Burkina Faso. Il constitue aussi un référentiel pour la formation initiale et continue des enseignants et des encadreurs. Bien que la recherche ait rempli des conditions méthodologiques et éthiques, la mise en oeuvre de ses résultats se limite au contexte burkinabé. Cependant, ils pourront soutenir ou orienter d’autres recherches qui s’inscrivent dans la même dynamique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The overall objective of the study is to examine the problems and prospects of the tea on industry in Kerala. The specific objectives are to trace the historical evolution of the tea plantation industry in India with special reference to Kerala and to study the performance of tea plantation industry in Kerala. In order to analyse the growth performance of tea plantation industry in Kerala in a comparative perspective, growth rates for the neighbouring states of Karnataka and Tamilnadu are estimated along with the National, South Indian and North Indian estimates. Tea plantation industry is a labour intensive activity. Productivity has been low primarily because of the over aging. In all the factories visited only Black tea is produced. In factories outmoded machines which installed years ago is still used which will increase the cost of production. The major problem is high cost of production and low price realization. The workers are found to be not satisfied with their working conditions- long journey to work place, absence of resting places, latrine facilities etc. and also the problems arising from dust in the factory. At a macro level the tea plantation industry has been facing the adverse impacts of globalisation and trade liberalization. There is only one solution to this problem that is to improve the competitiveness in production of raw leaf and manufacturing of tea. Government has a very important role with specification of strict quality control

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Wind energy has emerged as a major sustainable source of energy.The efficiency of wind power generation by wind mills has improved a lot during the last three decades.There is still further scope for maximising the conversion of wind energy into mechanical energy.In this context,the wind turbine rotor dynamics has great significance.The present work aims at a comprehensive study of the Horizontal Axis Wind Turbine (HAWT) aerodynamics by numerically solving the fluid dynamic equations with the help of a finite-volume Navier-Stokes CFD solver.As a more general goal,the study aims at providing the capabilities of modern numerical techniques for the complex fluid dynamic problems of HAWT.The main purpose is hence to maximize the physics of power extraction by wind turbines.This research demonstrates the potential of an incompressible Navier-Stokes CFD method for the aerodynamic power performance analysis of horizontal axis wind turbine.The National Renewable Energy Laboratory USA-NREL (Technical Report NREL/Cp-500-28589) had carried out an experimental work aimed at the real time performance prediction of horizontal axis wind turbine.In addition to a comparison between the results reported by NREL made and CFD simulations,comparisons are made for the local flow angle at several stations ahead of the wind turbine blades.The comparison has shown that fairly good predictions can be made for pressure distribution and torque.Subsequently, the wind-field effects on the blade aerodynamics,as well as the blade/tower interaction,were investigated.The selected case corresponded to a 12.5 m/s up-wind HAWT at zero degree of yaw angle and a rotational speed of 25 rpm.The results obtained suggest that the present can cope well with the flows encountered around wind turbines.The areodynamic performance of the turbine and the flow details near and off the turbine blades and tower can be analysed using theses results.The aerodynamic performance of airfoils differs from one another.The performance mainly depends on co-efficient of performnace,co-efficient of lift,co-efficient of drag, velocity of fluid and angle of attack.This study shows that the velocity is not constant for all angles of attack of different airfoils.The performance parameters are calculated analytically and are compared with the standardized performance tests.For different angles of ,the velocity stall is determined for the better performance of a system with respect to velocity.The research addresses the effect of surface roughness factor on the blade surface at various sections.The numerical results were found to be in agreement with the experimental data.A relative advantage of the theoretical aerofoil design method is that it allows many different concepts to be explored economically.Such efforts are generally impractical in wind tunnels because of time and money constraints.Thus, the need for a theoretical aerofoil design method is threefold:first for the design of aerofoil that fall outside the range of applicability of existing calalogs:second,for the design of aerofoil that more exactly match the requirements of the intended application:and third,for the economic exploration of many aerofoil concepts.From the results obtained for the different aerofoils,the velocity is not constant for all angles of attack.The results obtained for the aerofoil mainly depend on angle of attack and velocity.The vortex generator technique was meticulously studies with the formulation of the specification for the right angle shaped vortex generators-VG.The results were validated in accordance with the primary analysis phase.The results were found to be in good agreement with the power curve.The introduction of correct size VGs at appropriate locations over the blades of the selected HAWT was found to increase the power generation by about 4%

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The service quality of any sector has two major aspects namely technical and functional. Technical quality can be attained by maintaining technical specification as decided by the organization. Functional quality refers to the manner which service is delivered to customer which can be assessed by the customer feed backs. A field survey was conducted based on the management tool SERVQUAL, by designing 28 constructs under 7 dimensions of service quality. Stratified sampling techniques were used to get 336 valid responses and the gap scores of expectations and perceptions are analyzed using statistical techniques to identify the weakest dimension. To assess the technical aspects of availability six months live outage data of base transceiver were collected. The statistical and exploratory techniques were used to model the network performance. The failure patterns have been modeled in competing risk models and probability distribution of service outage and restorations were parameterized. Since the availability of network is a function of the reliability and maintainability of the network elements, any service provider who wishes to keep up their service level agreements on availability should be aware of the variability of these elements and its effects on interactions. The availability variations were studied by designing a discrete time event simulation model with probabilistic input parameters. The probabilistic distribution parameters arrived from live data analysis was used to design experiments to define the availability domain of the network under consideration. The availability domain can be used as a reference for planning and implementing maintenance activities. A new metric is proposed which incorporates a consistency index along with key service parameters that can be used to compare the performance of different service providers. The developed tool can be used for reliability analysis of mobile communication systems and assumes greater significance in the wake of mobile portability facility. It is also possible to have a relative measure of the effectiveness of different service providers.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Condoms are widely accepted as a contraceptive for family planning and population control. It is also accepted as the most effective barrier against sexually transmitted diseases, especially AIDS, the incurable disease. But presence of pinholes and low film strength of condoms make it unsuitable for the purpose. Quality improvement of condoms by reducing the pinhole formation and increasing the film strength is thus an essential requirement for population control as well as for preventing the spread of sexually transmitted diseases. Strict implementation of WHO specification of condoms further increases the rejection percentage. This causes higher rejection loss to condom manufacturers because the defects could be identified only at the final stage of processing. If the influence of various factors which cause these defects is known, manufacturers can take remedial measures to reduce the defectives so that rejection loss can be decreased and quality of condoms increased. In the present study, it was proposed to conduct experiments to improve the quality of condoms by reducing the pinhole rejection percentage and increasing the tensile properties, burst volume, and burst pressure. Ageing property improvement also was an important target among other parameters. Until a cure for AIDS is found, a high quality latex condom is the only effective device in the prevention of the spread of HIV, AIDS and STD's. Hence it is all the more necessary to have high quality condoms.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In Safety critical software failure can have a high price. Such software should be free of errors before it is put into operation. Application of formal methods in the Software Development Life Cycle helps to ensure that the software for safety critical missions are ultra reliable. PVS theorem prover, a formal method tool, can be used for the formal verification of software in ADA Language for Flight Software Application (ALFA.). This paper describes the modeling of ALFA programs for PVS theorem prover. An ALFA2PVS translator is developed which automatically converts the software in ALFA to PVS specification. By this approach the software can be verified formally with respect to underflow/overflow errors and divide by zero conditions without the actual execution of the code.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In Safety critical software failure can have a high price. Such software should be free of errors before it is put into operation. Application of formal methods in the Software Development Life Cycle helps to ensure that the software for safety critical missions are ultra reliable. PVS theorem prover, a formal method tool, can be used for the formal verification of software in ADA Language for Flight Software Application (ALFA.). This paper describes the modeling of ALFA programs for PVS theorem prover. An ALFA2PVS translator is developed which automatically converts the software in ALFA to PVS specification. By this approach the software can be verified formally with respect to underflow/overflow errors and divide by zero conditions without the actual execution of the code

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In Kerala highways, where traditional dense graded mixtures are used for the surface courses, major distress is due to moisture induced damages. Development of stabilized Stone Matrix Asphalt (SMA) mixtures for improved pavement performance has been the focus of research all over the world for the past few decades. Many successful attempts are made to stabilize SMA mixtures with synthetic fibres and polymers. India, being an agricultural economy produces fairly huge quantity of natural fibres such as coconut, sisal, banana, sugar cane, jute etc.. Now- a -days the disposal of waste plastics is a major concern for an eco- friendly sustainable environment. This paper focuses on the influence of additives like coir, sisal, banana fibres (natural fibres), waste plastics (waste material) and polypropylene (polymer) on the drain down characteristics of SMA mixtures. A preliminary investigation is conducted to characterize the materials used in this study. Drain down sensitivity tests are conducted to study the bleeding phenomena and drain down of SMA mixtures. Based on the drain down characteristics of the various stabilized mixtures it is inferred that the optimum fibre content is 0.3% by weight of mixture for all fibre mixtures irrespective of the type of fibre. For waste plastics and polypropylene stabilized SMA mixtures, the optimum additive contents are respectively 7% and 5% by weight of mixture. Due to the absorptive nature of fibres, fibre stabilizers are found to be more effective in reducing the drain down of the SMA mixture. The drain values for the waste plastics mix is within the required specification range. The coir fibre additive is the best among the fibres investigated. Sisal and banana fibre mixtures showed almost the same characteristics on stabilization.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Zur Senkung von Kosten werden in vielen Unternehmen Dienstleistungen, die nicht zur Kernkompetenz gehören, an externe Dienstleister ausgelagert. Dieser Prozess wird auch als Outsourcing bezeichnet. Die dadurch entstehenden Abhängigkeiten zu den externen Dienstleistern werden mit Hilfe von Service Level Agreements (SLAs) vertraglich geregelt. Die Aufgabe des Service Level Managements (SLM) ist es, die Einhaltung der vertraglich fixierten Dienstgüteparameter zu überwachen bzw. sicherzustellen. Für eine automatische Bearbeitung ist daher eine formale Spezifikation von SLAs notwendig. Da der Markt eine Vielzahl von unterschiedlichen SLM-Werkzeugen hervorgebracht hat, entstehen in der Praxis Probleme durch proprietäre SLA-Formate und fehlende Spezifikationsmethoden. Daraus resultiert eine Werkzeugabhängigkeit und eine limitierte Wiederverwendbarkeit bereits spezifizierter SLAs. In der vorliegenden Arbeit wird ein Ansatz für ein plattformunabhängiges Service Level Management entwickelt. Ziel ist eine Vereinheitlichung der Modellierung, so dass unterschiedliche Managementansätze integriert und eine Trennung zwischen Problem- und Technologiedomäne erreicht wird. Zudem wird durch die Plattformunabhängigkeit eine hohe zeitliche Stabilität erstellter Modelle erreicht. Weiteres Ziel der Arbeit ist, die Wiederverwendbarkeit modellierter SLAs zu gewährleisten und eine prozessorientierte Modellierungsmethodik bereitzustellen. Eine automatisierte Etablierung modellierter SLAs ist für eine praktische Nutzung von entscheidender Relevanz. Zur Erreichung dieser Ziele werden die Prinzipien der Model Driven Architecture (MDA) auf die Problemdomäne des Service Level Managements angewandt. Zentrale Idee der Arbeit ist die Definition von SLA-Mustern, die konfigurationsunabhängige Abstraktionen von Service Level Agreements darstellen. Diese SLA-Muster entsprechen dem Plattformunabhängigen Modell (PIM) der MDA. Durch eine geeignete Modelltransformation wird aus einem SLA-Muster eine SLA-Instanz generiert, die alle notwendigen Konfigurationsinformationen beinhaltet und bereits im Format der Zielplattform vorliegt. Eine SLA-Instanz entspricht damit dem Plattformspezifischen Modell (PSM) der MDA. Die Etablierung der SLA-Instanzen und die daraus resultierende Konfiguration des Managementsystems entspricht dem Plattformspezifischen Code (PSC) der MDA. Nach diesem Schritt ist das Managementsystem in der Lage, die im SLA vereinbarten Dienstgüteparameter eigenständig zu überwachen. Im Rahmen der Arbeit wurde eine UML-Erweiterung definiert, die eine Modellierung von SLA-Mustern mit Hilfe eines UML-Werkzeugs ermöglicht. Hierbei kann die Modellierung rein graphisch als auch unter Einbeziehung der Object Constraint Language (OCL) erfolgen. Für die praktische Realisierung des Ansatzes wurde eine Managementarchitektur entwickelt, die im Rahmen eines Prototypen realisiert wurde. Der Gesamtansatz wurde anhand einer Fallstudie evaluiert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The process of developing software that takes advantage of multiple processors is commonly referred to as parallel programming. For various reasons, this process is much harder than the sequential case. For decades, parallel programming has been a problem for a small niche only: engineers working on parallelizing mostly numerical applications in High Performance Computing. This has changed with the advent of multi-core processors in mainstream computer architectures. Parallel programming in our days becomes a problem for a much larger group of developers. The main objective of this thesis was to find ways to make parallel programming easier for them. Different aims were identified in order to reach the objective: research the state of the art of parallel programming today, improve the education of software developers about the topic, and provide programmers with powerful abstractions to make their work easier. To reach these aims, several key steps were taken. To start with, a survey was conducted among parallel programmers to find out about the state of the art. More than 250 people participated, yielding results about the parallel programming systems and languages in use, as well as about common problems with these systems. Furthermore, a study was conducted in university classes on parallel programming. It resulted in a list of frequently made mistakes that were analyzed and used to create a programmers' checklist to avoid them in the future. For programmers' education, an online resource was setup to collect experiences and knowledge in the field of parallel programming - called the Parawiki. Another key step in this direction was the creation of the Thinking Parallel weblog, where more than 50.000 readers to date have read essays on the topic. For the third aim (powerful abstractions), it was decided to concentrate on one parallel programming system: OpenMP. Its ease of use and high level of abstraction were the most important reasons for this decision. Two different research directions were pursued. The first one resulted in a parallel library called AthenaMP. It contains so-called generic components, derived from design patterns for parallel programming. These include functionality to enhance the locks provided by OpenMP, to perform operations on large amounts of data (data-parallel programming), and to enable the implementation of irregular algorithms using task pools. AthenaMP itself serves a triple role: the components are well-documented and can be used directly in programs, it enables developers to study the source code and learn from it, and it is possible for compiler writers to use it as a testing ground for their OpenMP compilers. The second research direction was targeted at changing the OpenMP specification to make the system more powerful. The main contributions here were a proposal to enable thread-cancellation and a proposal to avoid busy waiting. Both were implemented in a research compiler, shown to be useful in example applications, and proposed to the OpenMP Language Committee.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cooperative behaviour of agents within highly dynamic and nondeterministic domains is an active field of research. In particular establishing highly responsive teamwork, where agents are able to react on dynamic changes in the environment while facing unreliable communication and sensory noise, is an open problem. Moreover, modelling such responsive, cooperative behaviour is difficult. In this work, we specify a novel model for cooperative behaviour geared towards highly dynamic domains. In our approach, agents estimate each other’s decision and correct these estimations once they receive contradictory information. We aim at a comprehensive approach for agent teamwork featuring intuitive modelling capabilities for multi-agent activities, abstractions over activities and agents, and a clear operational semantic for the new model. This work encompasses a complete specification of the new language, ALICA.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Distributed systems are one of the most vital components of the economy. The most prominent example is probably the internet, a constituent element of our knowledge society. During the recent years, the number of novel network types has steadily increased. Amongst others, sensor networks, distributed systems composed of tiny computational devices with scarce resources, have emerged. The further development and heterogeneous connection of such systems imposes new requirements on the software development process. Mobile and wireless networks, for instance, have to organize themselves autonomously and must be able to react to changes in the environment and to failing nodes alike. Researching new approaches for the design of distributed algorithms may lead to methods with which these requirements can be met efficiently. In this thesis, one such method is developed, tested, and discussed in respect of its practical utility. Our new design approach for distributed algorithms is based on Genetic Programming, a member of the family of evolutionary algorithms. Evolutionary algorithms are metaheuristic optimization methods which copy principles from natural evolution. They use a population of solution candidates which they try to refine step by step in order to attain optimal values for predefined objective functions. The synthesis of an algorithm with our approach starts with an analysis step in which the wanted global behavior of the distributed system is specified. From this specification, objective functions are derived which steer a Genetic Programming process where the solution candidates are distributed programs. The objective functions rate how close these programs approximate the goal behavior in multiple randomized network simulations. The evolutionary process step by step selects the most promising solution candidates and modifies and combines them with mutation and crossover operators. This way, a description of the global behavior of a distributed system is translated automatically to programs which, if executed locally on the nodes of the system, exhibit this behavior. In our work, we test six different ways for representing distributed programs, comprising adaptations and extensions of well-known Genetic Programming methods (SGP, eSGP, and LGP), one bio-inspired approach (Fraglets), and two new program representations called Rule-based Genetic Programming (RBGP, eRBGP) designed by us. We breed programs in these representations for three well-known example problems in distributed systems: election algorithms, the distributed mutual exclusion at a critical section, and the distributed computation of the greatest common divisor of a set of numbers. Synthesizing distributed programs the evolutionary way does not necessarily lead to the envisaged results. In a detailed analysis, we discuss the problematic features which make this form of Genetic Programming particularly hard. The two Rule-based Genetic Programming approaches have been developed especially in order to mitigate these difficulties. In our experiments, at least one of them (eRBGP) turned out to be a very efficient approach and in most cases, was superior to the other representations.