771 resultados para Redundant manipulators
Resumo:
L’intégration de stimulations provenant de modalités sensorielles différentes nous offre des avantages perceptifs tels qu’une meilleure discrimination et une accélération des temps de réponse (TR) face aux évènements environnementaux. Cette thèse a investigué les effets de la position spatiale de stimulations visuelles et tactiles sur le gain de redondance (GR), qui correspond à une réduction du temps de réaction lorsque deux stimulations sont présentées simultanément plutôt qu’isolément. La première étude a comparé le GR lorsque les mêmes stimulations visuotactiles sont présentées dans une tâche de détection et une tâche de discrimination spatiale. Les stimulations étaient présentées unilatéralement dans le même hémichamp ou bilatéralement dans les hémichamps opposés. Dans la tâche de détection, les participants devaient répondre à toutes les stimulations, peu importe leur localisation. Les résultats de cette tâche démontrent que les stimulations unilatérales et bilatérales produisent un GR et une violation du modèle de course indissociables. Dans la tâche de discrimination spatiale où les participants devaient répondre seulement aux stimulations présentées dans l’hémichamp droit, les TR aux stimulations bilatérales étaient moins rapides. Nous n’avons pas observé de différence entre le GR maximal obtenu dans l’une ou l’autre des tâches de cette étude. Nous concluons que lorsque l’information spatiale n’est pas pertinente pour accomplir la tâche, les stimulations unilatérales et bilatérales sont équivalentes. La manipulation de la pertinence de l’information spatiale permet donc d’induire une altération du GR en fonction de la localisation des stimulations. Lors d’une seconde étude, nous avons investigué si la différence entre les gains comportementaux résultants de l’intégration multimodale et intramodale dépend de la configuration spatiale des stimulations. Les résultats montrent que le GR obtenu pour les conditions multimodales surpasse celui obtenu pour les stimulations intramodales. De plus, le GR des conditions multimodales n’est pas influencé par la configuration spatiale des stimulations. À l’opposé, les stimulations intramodales produisent un GR plus important iii lorsque les stimulations sont présentées bilatéralement. Nos résultats suggèrent que l’intégration multimodale et intramodale se distinguent quant au GR qu’ils produisent et quant aux conditions nécessaires à cette amélioration. La troisième étude examine le rôle du corps calleux (CC) dans l’observation du GR obtenu pour les stimulations multimodales et intramodales lorsque celles-ci sont présentées unilatéralement et bilatéralement. Quatre patients ayant une agénésie congénitale du corps calleux (AgCC) et un patient callosotomisé ont été comparés à des individus normaux dans une tâche de détection. Dans l’ensemble, les résultats suggèrent que le CC n’est pas nécessaire pour l’intégration interhémisphérique de stimulations multimodales. Sur la base d’études précédentes démontrant le rôle des collicules supérieurs (CS) dans l’intégration multimodale, nous concluons qu’en l’absence du CC, les bénéfices comportementaux résultants d’un traitement sous-cortical par les CS ne reflètent pas les règles d’intégration observées dans les études neurophysiologiques chez l’animal.
Resumo:
Le système ubiquitine-protéasome est le principal mécanisme par lequel les protéines intracellulaires sont dégradées. Le protéasome dit constitutif (PC) est donc essentiel à l’homéostasie mais aussi à la régulation de la majorité des processus cellulaires importants. La découverte d’un deuxième type de protéasome, appelé immunoprotéasome (IP), soulève toutefois de nouvelles questions. Pourquoi existe-t-il plus d’un type de protéasome ? L’IP a-t-il des rôles redondants ou complémentaires avec le PC ? L’IP étant présent principalement dans les cellules immunitaires ou stimulées par des cytokines, plusieurs groupes ont tenté de définir son rôle dans la réponse immunitaire. Or, l’implication de son homologue constitutif dans un éventail de processus non spécifiquement immunitaires nous laisse croire que l’IP pourrait lui aussi avoir un impact beaucoup plus large. L’objectif de cette thèse était donc de caractériser certains rôles cellulaires de l’IP dans les cellules dendritiques. Nous avons d’abord étudié l’impact global de l’IP sur la présentation antigénique de classe I. Ce faisant, nous avons pu déterminer ses deux contributions principales, soit l’augmentation drastique du nombre et de la diversité des peptides présentés sur les complexes majeurs d’histocompatibilité de classe I. Les différences de clivage entre le PC et l’IP pourraient expliquer en partie cette diversité du répertoire peptidique, notamment par l’affinité apparente de l’IP pour les régions protéiques non structurées. Dans un deuxième temps, nous avons dévoilé un nouveau rôle de l’IP sur un processus dépassant le cadre immunitaire : la transcription. Nous avons découvert que l’IP modifie l’abondance des ARNm en agissant principalement au niveau de leur synthèse. L’impact de l’IP sur le transcriptome est majeur et serait dû en partie à une dégradation différente de facteurs de transcription des familles IRF, STAT et NF-kB. Les cellules dendritiques IP-déficientes activent moins efficacement les lymphocytes T CD8+ et nous croyons que cette défaillance est causée (du moins en partie) par la perturbation transcriptomique provoquée par l’absence d’IP. Il importe donc de comprendre les différents rôles moléculaires de l’IP afin de mieux définir sa contribution globale au fonctionnement de la cellule et comprendre l’avantage évolutif, au niveau de l’organisme, procuré par une telle plasticité du système ubiquitine-protéasome.
Resumo:
Paralogs are present during ribosome biogenesis as well as in mature ribosomes in form of ribosomal proteins, and are commonly believed to play redundant functions within the cell. Two previously identified paralogs are the protein pair Ssf1 and Ssf2 (94% homologous). Ssf2 is believed to replace Ssf1 in case of its absence from cells, and depletion of both proteins leads to severely impaired cell growth. Results reveal that, under normal conditions, the Ssf paralogs associate with similar sets of proteins but with varying stabilities. Moreover, disruption of their pre-rRNP particles using high stringency buffers revealed that at least three proteins, possibly Dbp9, Drs1 and Nog1, are strongly associated with each Ssf protein under these conditions, and most likely represent a distinct subcomplex. In this study, depletion phenotypes obtained upon altering Nop7, Ssf1 and/or Ssf2 protein levels revealed that the Ssf paralogs cannot fully compensate for the depletion of one another because they are both, independently, required along parallel pathways that are dependent on the levels of availability of specific ribosome biogenesis proteins. Finally, this work provides evidence that, in yeast, Nop7 is genetically linked with both Ssf proteins.
Resumo:
Le récepteur de chimiokine CXCR3 est un récepteur couplé à la protéine G (RCPG) exprimé, entre autre, sur les cellules T activées lors d’une réponse immune. CXCR3 est activé par trois ligands inductibles par l’interféron-γ (CXCL9, 10, 11) et, plus récemment, il a été découvert que CXCL4 liait CXCR3. Nous savons que CXCR3 joue un rôle dans la chimiotaxie des leucocytes, mais peu d’attention a été portée sur la signalisation biaisée induite par ces quatre ligands. Alors que l’homodimérisation entre récepteurs de chimiokine est un concept grandement observé, l’hétéromérisation entre deux récepteurs reste un domaine de recherche active. La signalisation biaisée et l’hétéromérisation ont été testées grâce à la technique de bioluminescene resonance energy transfer (BRET) dans des cellules HEK293E. Nous présentons une caractérisation pharmacologique des quatre ligands de CXCR3 et démontrons l’hétéromérisation de CXCR3 avec CXCR4 et avec CXCR7. Nos résultats suggèrent que les ligands de CXCR3 n’agissent pas de manière redondante.
Resumo:
Le système hématopoïétique est un tissu en constant renouvellement et les cellules souches hématopoïétiques (CSHs) sont indispensables pour soutenir la production des cellules matures du sang. Deux fonctions définissent les CSHs; la propriété d’auto-renouvellement, soit la capacité de préserver l’identité cellulaire suivant une division, et la multipotence, le potentiel de différenciation permettant de générer toutes les lignées hématopoïétiques. Chez l’adulte, la majorité des CSHs sont quiescentes et l’altération de cet état corrèle avec une diminution du potentiel de reconstitution des CSHs, suggérant que la quiescence protège les fonctions des CSHs. La quiescence est un état réversible et dynamique et les réseaux génétiques le contrôlant restent peu connus. Un nombre croissant d’évidences suggère que si à l’état d’homéostasie il y a une certaine redondance entre les gènes impliqués dans ces réseaux de contrôle, leurs rôles spécifiques sont révélés en situation de stress. La famille des bHLHs (basic helix-loop-helix) inclue différentes classes des protéines dont ceux qui sont tissu-spécifiques comme SCL, et les protéines E, comme E12/E47 et HEB. Certains bHLHs sont proposés êtres important pour la fonction des cellules souches, mais cela ne fait pas l’unanimité, car selon le contexte cellulaire, il y a redondance entre ces facteurs. La question reste donc entière, y a-t-il un rôle redondant entre les bHLHs d’une même classe pour la fonction à long-terme des CSHs? Les travaux présentés dans cette thèse visaient dans un premier temps à explorer le lien encore mal compris entre la quiescence et la fonction des CSHs en mesurant leurs facultés suite à un stress prolifératif intense et dans un deuxième temps, investiguer l’importance et la spécificité de trois gènes pour la fonction des CSHs adultes, soit Scl/Tal1, E2a/Tcf3 et Heb/Tcf12. Pour répondre à ces questions, une approche cellulaire (stress prolifératif) a été combinée avec une approche génétique (invalidation génique). Plus précisément, la résistance des CSHs au stress prolifératif a été étudiée en utilisant deux tests fonctionnels quantitatifs optimisés, soit un traitement basé sur le 5-fluorouracil, une drogue de chimiothérapie, et la transplantation sérielle en nombre limite. Dans la mesure où la fonction d’un réseau génique ne peut être révélée que par une perturbation intrinsèque, trois modèles de souris, i.e. Scl+/-, E2a+/- et Heb+/- ont été utilisés. Ceci a permis de révéler que l’adaptation des CSHs au stress prolifératif et le retour à l’équilibre est strictement contrôlé par les niveaux de Scl, lesquels règlent le métabolisme cellulaire des CSHs en maintenant l’expression de gènes ribosomaux à un niveau basal. D’autre part, bien que les composantes du réseau puissent paraître redondants à l’équilibre, mes travaux montrent qu’en situation de stress prolifératif, les niveaux de Heb restreignent la prolifération excessive des CSHs en induisant la sénescence et que cette fonction ne peut pas être compensée par E2a. En conclusion, les résultats présentés dans cette thèse montrent que les CSHs peuvent tolérer un stress prolifératif intense ainsi que des dommages à l’ADN non-réparés, tout en maintenant leur capacité de reconstituer l’hématopoïèse à long-terme. Cela implique cependant que leur métabolisme revienne au niveau de base, soit celui trouvé à l’état d’homéostasie. Par contre, avec l’augmentation du nombre de division cellulaire les CSHs atteignent éventuellement une limite d’expansion et entrent en sénescence.
Resumo:
La multiplication dans le corps de Galois à 2^m éléments (i.e. GF(2^m)) est une opérations très importante pour les applications de la théorie des correcteurs et de la cryptographie. Dans ce mémoire, nous nous intéressons aux réalisations parallèles de multiplicateurs dans GF(2^m) lorsque ce dernier est généré par des trinômes irréductibles. Notre point de départ est le multiplicateur de Montgomery qui calcule A(x)B(x)x^(-u) efficacement, étant donné A(x), B(x) in GF(2^m) pour u choisi judicieusement. Nous étudions ensuite l'algorithme diviser pour régner PCHS qui permet de partitionner les multiplicandes d'un produit dans GF(2^m) lorsque m est impair. Nous l'appliquons pour la partitionnement de A(x) et de B(x) dans la multiplication de Montgomery A(x)B(x)x^(-u) pour GF(2^m) même si m est pair. Basé sur cette nouvelle approche, nous construisons un multiplicateur dans GF(2^m) généré par des trinôme irréductibles. Une nouvelle astuce de réutilisation des résultats intermédiaires nous permet d'éliminer plusieurs portes XOR redondantes. Les complexités de temps (i.e. le délais) et d'espace (i.e. le nombre de portes logiques) du nouveau multiplicateur sont ensuite analysées: 1. Le nouveau multiplicateur demande environ 25% moins de portes logiques que les multiplicateurs de Montgomery et de Mastrovito lorsque GF(2^m) est généré par des trinômes irréductible et m est suffisamment grand. Le nombre de portes du nouveau multiplicateur est presque identique à celui du multiplicateur de Karatsuba proposé par Elia. 2. Le délai de calcul du nouveau multiplicateur excède celui des meilleurs multiplicateurs d'au plus deux évaluations de portes XOR. 3. Nous determinons le délai et le nombre de portes logiques du nouveau multiplicateur sur les deux corps de Galois recommandés par le National Institute of Standards and Technology (NIST). Nous montrons que notre multiplicateurs contient 15% moins de portes logiques que les multiplicateurs de Montgomery et de Mastrovito au coût d'un délai d'au plus une porte XOR supplémentaire. De plus, notre multiplicateur a un délai d'une porte XOR moindre que celui du multiplicateur d'Elia au coût d'une augmentation de moins de 1% du nombre total de portes logiques.
Resumo:
A new procedure for the classification of lower case English language characters is presented in this work . The character image is binarised and the binary image is further grouped into sixteen smaller areas ,called Cells . Each cell is assigned a name depending upon the contour present in the cell and occupancy of the image contour in the cell. A data reduction procedure called Filtering is adopted to eliminate undesirable redundant information for reducing complexity during further processing steps . The filtered data is fed into a primitive extractor where extraction of primitives is done . Syntactic methods are employed for the classification of the character . A decision tree is used for the interaction of the various components in the scheme . 1ike the primitive extraction and character recognition. A character is recognized by the primitive by primitive construction of its description . Openended inventories are used for including variants of the characters and also adding new members to the general class . Computer implementation of the proposal is discussed at the end using handwritten character samples . Results are analyzed and suggestions for future studies are made. The advantages of the proposal are discussed in detail .
Resumo:
ACCURATE sensing of vehicle position and attitude is still a very challenging problem in many mobile robot applications. The mobile robot vehicle applications must have some means of estimating where they are and in which direction they are heading. Many existing indoor positioning systems are limited in workspace and robustness because they require clear lines-of-sight or do not provide absolute, driftfree measurements.The research work presented in this dissertation provides a new approach to position and attitude sensing system designed specifically to meet the challenges of operation in a realistic, cluttered indoor environment, such as that of an office building, hospital, industrial or warehouse. This is accomplished by an innovative assembly of infrared LED source that restricts the spreading of the light intensity distribution confined to a sheet of light and is encoded with localization and traffic information. This Digital Infrared Sheet of Light Beacon (DISLiB) developed for mobile robot is a high resolution absolute localization system which is simple, fast, accurate and robust, without much of computational burden or significant processing. Most of the available beacon's performance in corridors and narrow passages are not satisfactory, whereas the performance of DISLiB is very encouraging in such situations. This research overcomes most of the inherent limitations of existing systems.The work further examines the odometric localization errors caused by over count readings of an optical encoder based odometric system in a mobile robot due to wheel-slippage and terrain irregularities. A simple and efficient method is investigated and realized using an FPGA for reducing the errors. The detection and correction is based on redundant encoder measurements. The method suggested relies on the fact that the wheel slippage or terrain irregularities cause more count readings from the encoder than what corresponds to the actual distance travelled by the vehicle.The application of encoded Digital Infrared Sheet of Light Beacon (DISLiB) system can be extended to intelligent control of the public transportation system. The system is capable of receiving traffic status input through a GSM (Global System Mobile) modem. The vehicles have infrared receivers and processors capable of decoding the information, and generating the audio and video messages to assist the driver. The thesis further examines the usefulness of the technique to assist the movement of differently-able (blind) persons in indoor or outdoor premises of his residence.The work addressed in this thesis suggests a new way forward in the development of autonomous robotics and guidance systems. However, this work can be easily extended to many other challenging domains, as well.
Resumo:
Embedded systems are usually designed for a single or a specified set of tasks. This specificity means the system design as well as its hardware/software development can be highly optimized. Embedded software must meet the requirements such as high reliability operation on resource-constrained platforms, real time constraints and rapid development. This necessitates the adoption of static machine codes analysis tools running on a host machine for the validation and optimization of embedded system codes, which can help meet all of these goals. This could significantly augment the software quality and is still a challenging field.Embedded systems are usually designed for a single or a specified set of tasks. This specificity means the system design as well as its hardware/software development can be highly optimized. Embedded software must meet the requirements such as high reliability operation on resource-constrained platforms, real time constraints and rapid development. This necessitates the adoption of static machine codes analysis tools running on a host machine for the validation and optimization of embedded system codes, which can help meet all of these goals. This could significantly augment the software quality and is still a challenging field.Embedded systems are usually designed for a single or a specified set of tasks. This specificity means the system design as well as its hardware/software development can be highly optimized. Embedded software must meet the requirements such as high reliability operation on resource-constrained platforms, real time constraints and rapid development. This necessitates the adoption of static machine codes analysis tools running on a host machine for the validation and optimization of embedded system codes, which can help meet all of these goals. This could significantly augment the software quality and is still a challenging field.Embedded systems are usually designed for a single or a specified set of tasks. This specificity means the system design as well as its hardware/software development can be highly optimized. Embedded software must meet the requirements such as high reliability operation on resource-constrained platforms, real time constraints and rapid development. This necessitates the adoption of static machine codes analysis tools running on a host machine for the validation and optimization of embedded system codes, which can help meet all of these goals. This could significantly augment the software quality and is still a challenging field.This dissertation contributes to an architecture oriented code validation, error localization and optimization technique assisting the embedded system designer in software debugging, to make it more effective at early detection of software bugs that are otherwise hard to detect, using the static analysis of machine codes. The focus of this work is to develop methods that automatically localize faults as well as optimize the code and thus improve the debugging process as well as quality of the code.Validation is done with the help of rules of inferences formulated for the target processor. The rules govern the occurrence of illegitimate/out of place instructions and code sequences for executing the computational and integrated peripheral functions. The stipulated rules are encoded in propositional logic formulae and their compliance is tested individually in all possible execution paths of the application programs. An incorrect sequence of machine code pattern is identified using slicing techniques on the control flow graph generated from the machine code.An algorithm to assist the compiler to eliminate the redundant bank switching codes and decide on optimum data allocation to banked memory resulting in minimum number of bank switching codes in embedded system software is proposed. A relation matrix and a state transition diagram formed for the active memory bank state transition corresponding to each bank selection instruction is used for the detection of redundant codes. Instances of code redundancy based on the stipulated rules for the target processor are identified.This validation and optimization tool can be integrated to the system development environment. It is a novel approach independent of compiler/assembler, applicable to a wide range of processors once appropriate rules are formulated. Program states are identified mainly with machine code pattern, which drastically reduces the state space creation contributing to an improved state-of-the-art model checking. Though the technique described is general, the implementation is architecture oriented, and hence the feasibility study is conducted on PIC16F87X microcontrollers. The proposed tool will be very useful in steering novices towards correct use of difficult microcontroller features in developing embedded systems.
Resumo:
The modern telecommunication industry demands higher capacity networks with high data rate. Orthogonal frequency division multiplexing (OFDM) is a promising technique for high data rate wireless communications at reasonable complexity in wireless channels. OFDM has been adopted for many types of wireless systems like wireless local area networks such as IEEE 802.11a, and digital audio/video broadcasting (DAB/DVB). The proposed research focuses on a concatenated coding scheme that improve the performance of OFDM based wireless communications. It uses a Redundant Residue Number System (RRNS) code as the outer code and a convolutional code as the inner code. The bit error rate (BER) performances of the proposed system under different channel conditions are investigated. These include the effect of additive white Gaussian noise (AWGN), multipath delay spread, peak power clipping and frame start synchronization error. The simulation results show that the proposed RRNS-Convolutional concatenated coding (RCCC) scheme provides significant improvement in the system performance by exploiting the inherent properties of RRNS.
Resumo:
This paper highlights the prediction of learning disabilities (LD) in school-age children using rough set theory (RST) with an emphasis on application of data mining. In rough sets, data analysis start from a data table called an information system, which contains data about objects of interest, characterized in terms of attributes. These attributes consist of the properties of learning disabilities. By finding the relationship between these attributes, the redundant attributes can be eliminated and core attributes determined. Also, rule mining is performed in rough sets using the algorithm LEM1. The prediction of LD is accurately done by using Rosetta, the rough set tool kit for analysis of data. The result obtained from this study is compared with the output of a similar study conducted by us using Support Vector Machine (SVM) with Sequential Minimal Optimisation (SMO) algorithm. It is found that, using the concepts of reduct and global covering, we can easily predict the learning disabilities in children
Resumo:
Learning Disability (LD) is a classification including several disorders in which a child has difficulty in learning in a typical manner, usually caused by an unknown factor or factors. LD affects about 15% of children enrolled in schools. The prediction of learning disability is a complicated task since the identification of LD from diverse features or signs is a complicated problem. There is no cure for learning disabilities and they are life-long. The problems of children with specific learning disabilities have been a cause of concern to parents and teachers for some time. The aim of this paper is to develop a new algorithm for imputing missing values and to determine the significance of the missing value imputation method and dimensionality reduction method in the performance of fuzzy and neuro fuzzy classifiers with specific emphasis on prediction of learning disabilities in school age children. In the basic assessment method for prediction of LD, checklists are generally used and the data cases thus collected fully depends on the mood of children and may have also contain redundant as well as missing values. Therefore, in this study, we are proposing a new algorithm, viz. the correlation based new algorithm for imputing the missing values and Principal Component Analysis (PCA) for reducing the irrelevant attributes. After the study, it is found that, the preprocessing methods applied by us improves the quality of data and thereby increases the accuracy of the classifiers. The system is implemented in Math works Software Mat Lab 7.10. The results obtained from this study have illustrated that the developed missing value imputation method is very good contribution in prediction system and is capable of improving the performance of a classifier.
Resumo:
This paper introduces a simple and efficient method and its implementation in an FPGA for reducing the odometric localization errors caused by over count readings of an optical encoder based odometric system in a mobile robot due to wheel-slippage and terrain irregularities. The detection and correction is based on redundant encoder measurements. The method suggested relies on the fact that the wheel slippage or terrain irregularities cause more count readings from the encoder than what corresponds to the actual distance travelled by the vehicle. The standard quadrature technique is used to obtain four counts in each encoder period. In this work a three-wheeled mobile robot vehicle with one driving-steering wheel and two-fixed rear wheels in-axis, fitted with incremental optical encoders is considered. The CORDIC algorithm has been used for the computation of sine and cosine terms in the update equations. The results presented demonstrate the effectiveness of the technique
Resumo:
Bank switching in embedded processors having partitioned memory architecture results in code size as well as run time overhead. An algorithm and its application to assist the compiler in eliminating the redundant bank switching codes introduced and deciding the optimum data allocation to banked memory is presented in this work. A relation matrix formed for the memory bank state transition corresponding to each bank selection instruction is used for the detection of redundant codes. Data allocation to memory is done by considering all possible permutation of memory banks and combination of data. The compiler output corresponding to each data mapping scheme is subjected to a static machine code analysis which identifies the one with minimum number of bank switching codes. Even though the method is compiler independent, the algorithm utilizes certain architectural features of the target processor. A prototype based on PIC 16F87X microcontrollers is described. This method scales well into larger number of memory blocks and other architectures so that high performance compilers can integrate this technique for efficient code generation. The technique is illustrated with an example
Resumo:
In dieser Arbeit wurde ein räumlich bewegter pneumatischer Mehrachsenprüfstand als spezielle mechanische Variante eines Parallelroboters entwickelt, im Labor aufgebaut und in Rechnersimulationen sowie in Laborexperimenten regelungstechnisch untersucht. Für diesen speziellen Parallelroboter MAP-RTS-6 wurden Regelalgorithmen, die mittels moderner Verfahren der linearen und nichtlinearen Regelungstheorie abgeleitet wurden, hinsichtlich ihrer praktischen Anwendbarkeit, Echtzeitfähigkeit und Qualität entwickelt, implementiert und überprüft. Mit diesen Regelalgorithmen ist der MAP-RTS-6 in der Lage, große räumliche Transienten schnell und präzise nachzufahren. Der MAP-RTS-6 wird in erster Linie als räumlicher Bewegungsmanipulator für große nichtlineare Transienten (Translationen und Rotationen), als räumlicher Vibrationsprüfstand für starre und flexible Prüfkörper unterschiedlicher Konfigurationen und als Mechanismus für die Implementierung und experimentelle Überprüfung unterschiedlicher Regelungs- und Identifikationsalgorithmen und Sicherheitskonzepte verwendet. Die Voraussetzung zum Betrieb des Mehrachsenprüfstands für unterschiedliche redundante Antriebskonfigurationen mit sieben und acht Antrieben MAP-RTS-7 und MAP-RTS-8 wurde in dieser Arbeit geschaffen. Dazu zählen die konstruktive Vorbereitung der Prüfstandsmechanik und Pneumatik zum Anschluss weiterer Antriebe, die Vorbereitung zusätzlicher I/O-Schnittstellen zur Prüfstandselektronik und zum Regelungssystem und die Ableitung von Algorithmen zur analytischen Arbeitsraumüberwachung für redundante Antriebskonfigurationen mit sieben und acht Antrieben.