950 resultados para Extensible Pluggable Architecture Hydra Data


Relevância:

30.00% 30.00%

Publicador:

Resumo:

This study was done for ABB Ltd. Motors and Generators business unit in Helsinki. In this study, global data movement in large businesses is examined from a product data management (PDM) and enterprise resource planning (ERP) point-of-view. The purpose of this study was to understand and map out how a large global business handles its data in a multiple site structure and how it can be applied in practice. This was done by doing an empirical interview study on five different global businesses with design locations in multiple countries. Their master data management (MDM) solutions were inspected and analyzed to understand which solution would best benefit a large global architecture with many design locations. One working solution is a transactional hub which negates the effects of multisite transfers and reduces lead times. Also, the requirements and limitations of the current MDM architecture were analyzed and possible reform ideas given.  

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Gastroesophageal reflux (GER) is common in asthma patients and can contribute to sleep disruption. The aim of the present study was to determine the time-related distribution of GER events together with their impact on sleep in asthmatic subjects with GER disease symptoms. The inclusion criteria were: 18-65 years, controlled moderate to severe asthma and GER-compatible clinical evidence. The exclusion criteria were: chronic obstructive lung disease, smoking, infections of the upper airways, use of oral corticosteroids, other co-morbidities, pregnancy, sleep-related disorders, night-time shift work, and the use of substances with impact on sleep. Asthmatic patients with nocturnal symptoms were excluded. All-night polysomnography and esophageal pH monitoring were recorded simultaneously. Of the 147 subjects selected, 31 patients and 31 controls were included. Seventeen patients were classified as DeMeester positive and 14 as DeMeester negative. Both groups displayed similar outcomes when general variables were considered. Sleep stage modification one minute prior to GER was observed in the DeMeester-positive group. Awakening was the most frequent occurrence at GER onset and during the 1-min period preceding 38% of the nocturnal GER. Sleep stage 2 was also prevalent and preceded 36% of GER events. In the DeMeester-negative group, awakening was the most frequent response before and during GER. Modifications in sleep stages, arousals or awakenings were associated with 75% of the total GER events analyzed during the period of one minute before and after the fall of esophageal pH below 4 in the DeMeester-positive group. These data provide evidence that sleep modifications precede the GER events in asthmatic patients.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Digitalization has been predicted to change the future as a growing range of non-routine tasks will be automated, offering new kinds of business models for enterprises. Serviceoriented architecture (SOA) provides a basis for designing and implementing welldefined problems as reusable services, allowing computers to execute them. Serviceoriented design has potential to act as a mediator between IT and human resources, but enterprises struggle with their SOA adoption and lack a linkage between the benefits and costs of services. This thesis studies the phenomenon of service reuse in enterprises, proposing an ontology to link different kinds of services with their role conceptually as a part of the business model. The proposed ontology has been created on the basis of qualitative research conducted in three large enterprises. Service reuse has two roles in enterprises: it enables automated data sharing among human and IT resources, and it may provide cost savings in service development and operations. From a technical viewpoint, the ability to define a business problem as a service is one of the key enablers for achieving service reuse. The research proposes two service identification methods, first to identify prospective services in the existing documentation of the enterprise and secondly to model the services from a functional viewpoint, supporting service identification sessions with business stakeholders.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The objective of this study was to predict by means of Artificial Neural Network (ANN), multilayer perceptrons, the texture attributes of light cheesecurds perceived by trained judges based on instrumental texture measurements. Inputs to the network were the instrumental texture measurements of light cheesecurd (imitative and fundamental parameters). Output variables were the sensory attributes consistency and spreadability. Nine light cheesecurd formulations composed of different combinations of fat and water were evaluated. The measurements obtained by the instrumental and sensory analyses of these formulations constituted the data set used for training and validation of the network. Network training was performed using a back-propagation algorithm. The network architecture selected was composed of 8-3-9-2 neurons in its layers, which quickly and accurately predicted the sensory texture attributes studied, showing a high correlation between the predicted and experimental values for the validation data set and excellent generalization ability, with a validation RMSE of 0.0506.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Developing nations vary in data usage techniques with respect to developed nations because of lack of standard information technology architecture. With the concept of globalization in the modern times, there is a necessity of information sharing between different developing nations for better advancements in socio-economic and science and technology fields. A robust IT architecture is needed and has to be built between different developing nations which eases information sharing and other data usage methods. A framework like TOGAF may work in this case as a normal IT framework may not fit to meet the requirements of an enterprise architecture. The intention of the thesis is to build an enterprise architecture between different developing nations using a framework TOGAF

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Palynomorphs from two siliciclastic margins were examined to gain insights into continental margin architecture. Sea level change is thought to be one of the primary controls on continental margin architecture. Because Late Neogene glacioeustasy has been well studied marine sediments deposited during the Late Neogene were examined to test this concept. Cores from the outer shelf and upper slope were taken from the New Jersey margin in the western North Atlantic Ocean and from the Sunda Shelf margin in the South China Sea. Continental margin architecture is often described in a sequence stratigraphic context. One of the main goals of both coring projects was to test the theoretical sequence stratigraphic models developed by a research group at Exxon (e.g. Wilgus et al., 1988). Palynomorphs provide one of the few methods of inferring continental margin architecture in monotonous, siliciclastic marine sediments where calcareous sediments are rare (e.g. New Jersey margin). In this study theoretical models of the palynological signature expected in sediment packages deposited during the various increments of a glacioeustatic cycle were designed. These models were based on the modem palynomorph trends and taphonomic factors thought to control palynomorph distribution. Both terrestrial (pollen and spores) and marine (dinocysts) palynomorphs were examined. The palynological model was then compared with New Jersey margin and Sunda Shelf margin sediments. The predicted palynological trends provided a means of identifying a complete cycle of glacioeustatic change (Oxygen Isotope Stage 5e to present) in the uppermost 80 meters of sediment on the slope at the New Jersey margin. Sediment availability, not sea meters of sediment on the slope at the New Jersey margin. Sediment availability, not sea level change, is thought to be the major factor controlling margin architecture during the late Pleistocene here at the upper slope. This is likely a function of the glacial scouring of the continents which significantly increases sediment availability during glacial stages. The subaerially exposed continental shelf during the lowstand periods would have been subject to significant amounts of erosion fi:om the proglacial rivers flowing fi-om the southern regions of the ice-sheet. The slope site is non-depositional today and was also non-depositional during the last full interglacial period. The palynomorph data obtained fi-om the South China Sea indicate that the major difference between the New Jersey Margin sites and the Sunda Shelf margin sites is the variation in sediment supply and the rate of sediment accumulation. There was significantly less variation in sediment supply between glacial and interglacial periods and less overall sediment accumulation at the Sunda Shelf margin. The data presented here indicate that under certain conditions the theoretical palynological models allow the identification of individual sequence stratigraphic units and therefore, allow inferences regarding continental margin architecture. The major condition required in this approach is that a complete and reliable database of the contemporaneous palynomorphs be available.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The synthesis of 3-ethynylthienyl- (2.07), 3-ethynylterthienyl- (2.19) substituted qsal [qsalH = N-(8-quinolyl)salicylaldimine] and 3,3' -diethynyl-2,2' -bithienyl bridging bisqsal (5.06) ligands are described along with the preparation and characterization of eight cationic iron(III) complexes containing these ligands with a selection of counteranions [(2.07) with: SCN- (2.08), PF6- (2.09), and CI04- (2.10); (2.19) with PF6 - (2.20); (5.06) with: cr (5.07), SeN- (5.08), PF6- (5.09), and CI04- (5.10)]. Spin-crossover is observed in the solid state for (2.08) - (2.10) and (5.07) - (5.10), including a ve ry rare S = 5/2 to 3/2 spin-crossover in complex (2.09). The unusal reduction of complex (2.10) produces a high-spin iron(I1) complex (2.12). Six iron(II) complexes that are derived from thienyl analogues of bispicen [bispicen = bis(2-pyridylmethyl)-diamine] [2,5-thienyl substituents = H- (3.11), Phenyl- (3.12), 2- thienyl (3.13) or N-phenyl-2-pyridinalimine ligands [2,5-phenyl substituents = diphenyl (3.23), di(2-thienyl) (3.24), 4-phenyl substituent = 3-thienyl (3.25)] are reported Complexes (3.11), (3.23) and (3.25) display thermal spin-crossover in the solid state and (3.12) remains high-spin at all temperatures. Complex (3.13) rearranges to form an iron(II) complex (3.14) with temperature dependent magnetic properties be s t described as a one-dimensional ferromagnetic chain, with interchain antiferromagnetic interactions and/or ZFS dominant at low temperatures. Magnetic succeptibility and Mossbauer data for complex (3.24) display a temperature dependent mixture of spin isomers. The preparation and characterization of two cobalt(II) complexes containing 3- ethynylthienyl- (4.04) and 3-ethynylterhienyl- (4.06) substituted bipyridine ligands [(4.05): [Co(dbsqh(4.04)]; (4.07): [Co(dbsq)2(4.06)]] [dbsq = 3,5-dbsq=3,5-di-tert-butylI ,2-semiquinonate] are reported. Complexes (4.05) and (4.07) exhibit thermal valence tautomerism in the solid state and in solution. Self assembly of complex (2.10) into polymeric spheres (6.11) afforded the first spincrossover, polydisperse, micro- to nanoscale material of its kind. . Complexes (2.20), (3.24) and (4.07) also form polymers through electrochemical synthesis to produce hybrid metaUopolymer films (6.12), (6.15) and (6.16), respectively. The films have been characterized by EDX, FT-IR and UV-Vis spectroscopy. Variable-temperature magnetic susceptibility measurements demonstrate that spin lability is operative in the polymers and conductivity measurements confirm the electron transport properties. Polymer (6.15) has a persistent oxidized state that shows a significant decrease in electrical resistance.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il existe somme toute peu de théories du projet offrant une modélisation construite à partir de la complexité et de la diversité du projet d’architecture. Pourtant,certaines situations rassemblant parfois plusieurs dizaines de projets s’offrent d’elles-mêmes comme des situations comparatives et expérimentales : les concours d’architecture, d’urbanisme et de paysage. Le Laboratoire d’étude de l’architecture potentielle de l’Université de Montréal (Aménagement), après avoir développé un système d’archivage numérique des concours canadiens, a entrepris, avec le soutien du Groupement d’intérêt public « Europe des projets architecturaux et urbains », de développer la base de données documentaire des concours d’idées Europan. Au-delà des questions d’archivage numérique, se profilent clairement des possibilités de théorisation s’appuyant sur les logiques d’une base de données, en particulier sur la constitution du diagramme entités et relations, modélisation indispensable à sa traduction informatique. Cette recherche entreprend une première mise à jour de ces éléments conceptuels et tend à montrer que la base de données est un véritable modèle théorique du projet ouvrant sur de nouvelles avenues de recherche et de connaissance.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La douleur est une expérience perceptive comportant de nombreuses dimensions. Ces dimensions de douleur sont inter-reliées et recrutent des réseaux neuronaux qui traitent les informations correspondantes. L’élucidation de l'architecture fonctionnelle qui supporte les différents aspects perceptifs de l'expérience est donc une étape fondamentale pour notre compréhension du rôle fonctionnel des différentes régions de la matrice cérébrale de la douleur dans les circuits corticaux qui sous tendent l'expérience subjective de la douleur. Parmi les diverses régions du cerveau impliquées dans le traitement de l'information nociceptive, le cortex somatosensoriel primaire et secondaire (S1 et S2) sont les principales régions généralement associées au traitement de l'aspect sensori-discriminatif de la douleur. Toutefois, l'organisation fonctionnelle dans ces régions somato-sensorielles n’est pas complètement claire et relativement peu d'études ont examiné directement l'intégration de l'information entre les régions somatiques sensorielles. Ainsi, plusieurs questions demeurent concernant la relation hiérarchique entre S1 et S2, ainsi que le rôle fonctionnel des connexions inter-hémisphériques des régions somatiques sensorielles homologues. De même, le traitement en série ou en parallèle au sein du système somatosensoriel constitue un autre élément de questionnement qui nécessite un examen plus approfondi. Le but de la présente étude était de tester un certain nombre d'hypothèses sur la causalité dans les interactions fonctionnelle entre S1 et S2, alors que les sujets recevaient des chocs électriques douloureux. Nous avons mis en place une méthode de modélisation de la connectivité, qui utilise une description de causalité de la dynamique du système, afin d'étudier les interactions entre les sites d'activation définie par un ensemble de données provenant d'une étude d'imagerie fonctionnelle. Notre paradigme est constitué de 3 session expérimentales en utilisant des chocs électriques à trois différents niveaux d’intensité, soit modérément douloureux (niveau 3), soit légèrement douloureux (niveau 2), soit complètement non douloureux (niveau 1). Par conséquent, notre paradigme nous a permis d'étudier comment l'intensité du stimulus est codé dans notre réseau d'intérêt, et comment la connectivité des différentes régions est modulée dans les conditions de stimulation différentes. Nos résultats sont en faveur du mode sériel de traitement de l’information somatosensorielle nociceptive avec un apport prédominant de la voie thalamocorticale vers S1 controlatérale au site de stimulation. Nos résultats impliquent que l'information se propage de S1 controlatéral à travers notre réseau d'intérêt composé des cortex S1 bilatéraux et S2. Notre analyse indique que la connexion S1→S2 est renforcée par la douleur, ce qui suggère que S2 est plus élevé dans la hiérarchie du traitement de la douleur que S1, conformément aux conclusions précédentes neurophysiologiques et de magnétoencéphalographie. Enfin, notre analyse fournit des preuves de l'entrée de l'information somatosensorielle dans l'hémisphère controlatéral au côté de stimulation, avec des connexions inter-hémisphériques responsable du transfert de l'information à l'hémisphère ipsilatéral.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La leucémie lymphoblastique aigüe (LLA) est une maladie génétique complexe. Malgré que cette maladie hématologique soit le cancer pédiatrique le plus fréquent, ses causes demeurent inconnues. Des études antérieures ont démontrées que le risque à la LLA chez l’enfant pourrait être influencé par des gènes agissant dans le métabolisme des xénobiotiques, dans le maintient de l’intégrité génomique et dans la réponse au stress oxydatif, ainsi que par des facteurs environnementaux. Au cours de mes études doctorales, j’ai tenté de disséquer davantage les bases génétiques de la LLA de l’enfant en postulant que la susceptibilité à cette maladie serait modulée, au moins en partie, par des variants génétiques agissant dans deux voies biologiques fondamentales : le point de contrôle G1/S du cycle cellulaire et la réparation des cassures double-brin de l’ADN. En utilisant une approche unique reposant sur l’analyse d’une cohorte cas-contrôles jumelée à une cohorte de trios enfants-parents, j’ai effectué une étude d’association de type gènes/voies biologiques candidats. Ainsi, j’ai évaluer le rôle de variants provenant de la séquence promotrice de 12 gènes du cycle cellulaire et de 7 gènes de la voie de réparation de l’ADN, dans la susceptibilité à la LLA. De tels polymorphismes dans la région promotrice (pSNPs) pourraient perturber la liaison de facteurs de transcription et mener à des différences dans les niveaux d’expression des gènes pouvant influencer le risque à la maladie. En combinant différentes méthodes analytiques, j’ai évalué le rôle de différents mécanismes génétiques dans le développement de la LLA chez l’enfant. J’ai tout d’abord étudié les associations avec gènes/variants indépendants, et des essaies fonctionnels ont été effectués afin d’évaluer l’impact des pSNPs sur la liaison de facteurs de transcription et l’activité promotrice allèle-spécifique. Ces analyses ont mené à quatre publications. Il est peu probable que ces gènes de susceptibilité agissent seuls; j’ai donc utilisé une approche intégrative afin d’explorer la possibilité que plusieurs variants d’une même voie biologique ou de voies connexes puissent moduler le risque de la maladie; ces travaux ont été soumis pour publication. En outre, le développement précoce de la LLA, voir même in utero, suggère que les parents, et plus particulièrement la mère, pourraient jouer un rôle important dans le développement de cette maladie chez l’enfant. Dans une étude par simulations, j’ai évalué la performance des méthodes d’analyse existantes de détecter des effets fœto-maternels sous un design hybride trios/cas-contrôles. J’ai également investigué l’impact des effets génétiques agissant via la mère sur la susceptibilité à la LLA. Cette étude, récemment publiée, fût la première à démontrer que le risque de la leucémie chez l’enfant peut être modulé par le génotype de sa mère. En conclusions, mes études doctorales ont permis d’identifier des nouveaux gènes de susceptibilité pour la LLA pédiatrique et de mettre en évidence le rôle du cycle cellulaire et de la voie de la réparation de l’ADN dans la leucémogenèse. À terme, ces travaux permettront de mieux comprendre les bases génétiques de la LLA, et conduiront au développement d’outils cliniques qui amélioreront la détection, le diagnostique et le traitement de la leucémie chez l’enfant.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Un système, décrit avec un grand nombre d'éléments fortement interdépendants, est complexe, difficile à comprendre et à maintenir. Ainsi, une application orientée objet est souvent complexe, car elle contient des centaines de classes avec de nombreuses dépendances plus ou moins explicites. Une même application, utilisant le paradigme composant, contiendrait un plus petit nombre d'éléments, faiblement couplés entre eux et avec des interdépendances clairement définies. Ceci est dû au fait que le paradigme composant fournit une bonne représentation de haut niveau des systèmes complexes. Ainsi, ce paradigme peut être utilisé comme "espace de projection" des systèmes orientés objets. Une telle projection peut faciliter l'étape de compréhension d'un système, un pré-requis nécessaire avant toute activité de maintenance et/ou d'évolution. De plus, il est possible d'utiliser cette représentation, comme un modèle pour effectuer une restructuration complète d'une application orientée objets opérationnelle vers une application équivalente à base de composants tout aussi opérationnelle. Ainsi, La nouvelle application bénéficiant ainsi, de toutes les bonnes propriétés associées au paradigme composants. L'objectif de ma thèse est de proposer une méthode semi-automatique pour identifier une architecture à base de composants dans une application orientée objets. Cette architecture doit, non seulement aider à la compréhension de l'application originale, mais aussi simplifier la projection de cette dernière dans un modèle concret de composant. L'identification d'une architecture à base de composants est réalisée en trois grandes étapes: i) obtention des données nécessaires au processus d'identification. Elles correspondent aux dépendances entre les classes et sont obtenues avec une analyse dynamique de l'application cible. ii) identification des composants. Trois méthodes ont été explorées. La première utilise un treillis de Galois, la seconde deux méta-heuristiques et la dernière une méta-heuristique multi-objective. iii) identification de l'architecture à base de composants de l'application cible. Cela est fait en identifiant les interfaces requises et fournis pour chaque composant. Afin de valider ce processus d'identification, ainsi que les différents choix faits durant son développement, j'ai réalisé différentes études de cas. Enfin, je montre la faisabilité de la projection de l'architecture à base de composants identifiée vers un modèle concret de composants.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Selon l’image reçue des Vikings, ce peuple incarne l'esprit d’une immense solidarité primitive ayant su résister rudement au joug du christianisme et à la domination du Latin en Europe occidentale. Cette image n’est pas sans ses contradictions et, s’il est vrai que l’écriture était encore inconnue en Scandinavie durant les premiers siècles de l’expansion viking, on sait maintenant que le commerce et la colonisation, autant que les célèbres raids, motivèrent l’irruption des peuples scandinaves sur la scène médiévale. Quant aux navires de ces marchands, colonisateurs, pêcheurs et guerriers, ils apparaissent, un peu à l’image des Vikings eux-mêmes, sur le grand tableau de l’histoire nautique sous l’enseigne d’une originalité et d’une technicité sans parallèle. Comment les Vikings construisaient-ils leurs navires, en leur donnant une symétrie, un équilibre et une finesse si achevés? Les premiers ethnologues qui se sont intéressés à cette question ont privilégié les idées issues d'une tradition acquise par des générations de constructeurs, et d'astuces simples pour équilibrer tribord et bâbord. Puis, ils se sont rapidement tournés vers les techniques inhérentes à la construction à clin : utilisation de planches fendues et non sciées et de rivets abondants témoignant d’une sidérurgie acquise depuis peu. Le problème que présentent ces navires, est que leur construction artisanale demeure conforme à l’image reçue des Vikings, mais que leur conception architecturale, réalisée selon des connaissances théoriques très exactes, brise la notion d’une Scandinavie médiévale illettrée et coupée des grands centres du savoir. Ce travail s’intéresse précisément à la conception architecturale des navires scandinaves du VIIIe au XIe siècle pour montrer comment ils s’insèrent dans un haut savoir européen dès leur apparition. Il explore ensuite les liens qui unissent ce savoir théorique aux aspects véritablement originaux des navires vikings, en l’occurrence leur construction à clin et leur homogénéité sur une grande région à travers plus de cinq siècles. Au terme de cette recherche, l'analyse réalisée sur le maître-couple de trois épaves vikings, une épave antique et une épave scandinave pré-viking, a permis de mettre en évidence plusieurs indices de l'utilisation du système de conception géométrique apparaissant pour la première fois dans les traités d'architecture navale de la Renaissance, et ce, sur chacune de ces épaves. Les résultats obtenus démontrent qu'il est possible d'employer un système transversal de conception pour des navires vraisemblablement construits bordé premier et assemblés à clin.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Contexte : L’anémie falciforme ou drépanocytose est un problème de santé important, particulièrement pour les patients d’origine africaine. La variation phénotypique de l’anémie falciforme est problématique pour le suivi et le traitement des patients. L’architecture génomique responsable de cette variabilité est peu connue. Principe : Mieux saisir la contribution génétique de la variation clinique de cette maladie facilitera l’identification des patients à risque de développer des phénotypes sévères, ainsi que l’adaptation des soins. Objectifs : L’objectif général de cette thèse est de combler les lacunes relatives aux connaissances sur l’épidémiologie génomique de l’anémie falciforme à l’aide d’une cohorte issue au Bénin. Les objectifs spécifiques sont les suivants : 1) caractériser les profils d’expressions génomiques associés à la sévérité de l’anémie falciforme ; 2) identifier des biomarqueurs de la sévérité de l’anémie falciforme ; 3) identifier la régulation génétique des variations transcriptionelles ; 4) identifier des interactions statistiques entre le génotype et le niveau de sévérité associé à l’expression ; 5) identifier des cibles de médicaments pour améliorer l’état des patients atteints d’anémie falciforme. Méthode : Une étude cas-témoins de 250 patients et 61 frères et soeurs non-atteints a été menée au Centre de Prise en charge Médical Intégré du Nourrisson et de la Femme Enceinte atteints de Drépanocytose, au Bénin entre février et décembre 2010. Résultats : Notre analyse a montré que des profils d’expressions sont associés avec la sévérité de l’anémie falciforme. Ces profils sont enrichis de génes des voies biologiques qui contribuent à la progression de la maladie : l’activation plaquettaire, les lymphocytes B, le stress, l’inflammation et la prolifération cellulaire. Des biomarqueurs transcriptionnels ont permis de distinguer les patients ayant des niveaux de sévérité clinique différents. La régulation génétique de la variation de l’expression des gènes a été démontrée et des interactions ont été identifiées. Sur la base de ces résultats génétiques, des cibles de médicaments sont proposées. Conclusion: Ce travail de thèse permet de mieux comprendre l’impact de la génomique sur la sévérité de l’anémie falciforme et ouvre des perspectives de développement de traitements ciblés pour améliorer les soins offerts aux patients.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Embedded systems are usually designed for a single or a specified set of tasks. This specificity means the system design as well as its hardware/software development can be highly optimized. Embedded software must meet the requirements such as high reliability operation on resource-constrained platforms, real time constraints and rapid development. This necessitates the adoption of static machine codes analysis tools running on a host machine for the validation and optimization of embedded system codes, which can help meet all of these goals. This could significantly augment the software quality and is still a challenging field.Embedded systems are usually designed for a single or a specified set of tasks. This specificity means the system design as well as its hardware/software development can be highly optimized. Embedded software must meet the requirements such as high reliability operation on resource-constrained platforms, real time constraints and rapid development. This necessitates the adoption of static machine codes analysis tools running on a host machine for the validation and optimization of embedded system codes, which can help meet all of these goals. This could significantly augment the software quality and is still a challenging field.Embedded systems are usually designed for a single or a specified set of tasks. This specificity means the system design as well as its hardware/software development can be highly optimized. Embedded software must meet the requirements such as high reliability operation on resource-constrained platforms, real time constraints and rapid development. This necessitates the adoption of static machine codes analysis tools running on a host machine for the validation and optimization of embedded system codes, which can help meet all of these goals. This could significantly augment the software quality and is still a challenging field.Embedded systems are usually designed for a single or a specified set of tasks. This specificity means the system design as well as its hardware/software development can be highly optimized. Embedded software must meet the requirements such as high reliability operation on resource-constrained platforms, real time constraints and rapid development. This necessitates the adoption of static machine codes analysis tools running on a host machine for the validation and optimization of embedded system codes, which can help meet all of these goals. This could significantly augment the software quality and is still a challenging field.This dissertation contributes to an architecture oriented code validation, error localization and optimization technique assisting the embedded system designer in software debugging, to make it more effective at early detection of software bugs that are otherwise hard to detect, using the static analysis of machine codes. The focus of this work is to develop methods that automatically localize faults as well as optimize the code and thus improve the debugging process as well as quality of the code.Validation is done with the help of rules of inferences formulated for the target processor. The rules govern the occurrence of illegitimate/out of place instructions and code sequences for executing the computational and integrated peripheral functions. The stipulated rules are encoded in propositional logic formulae and their compliance is tested individually in all possible execution paths of the application programs. An incorrect sequence of machine code pattern is identified using slicing techniques on the control flow graph generated from the machine code.An algorithm to assist the compiler to eliminate the redundant bank switching codes and decide on optimum data allocation to banked memory resulting in minimum number of bank switching codes in embedded system software is proposed. A relation matrix and a state transition diagram formed for the active memory bank state transition corresponding to each bank selection instruction is used for the detection of redundant codes. Instances of code redundancy based on the stipulated rules for the target processor are identified.This validation and optimization tool can be integrated to the system development environment. It is a novel approach independent of compiler/assembler, applicable to a wide range of processors once appropriate rules are formulated. Program states are identified mainly with machine code pattern, which drastically reduces the state space creation contributing to an improved state-of-the-art model checking. Though the technique described is general, the implementation is architecture oriented, and hence the feasibility study is conducted on PIC16F87X microcontrollers. The proposed tool will be very useful in steering novices towards correct use of difficult microcontroller features in developing embedded systems.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Bank switching in embedded processors having partitioned memory architecture results in code size as well as run time overhead. An algorithm and its application to assist the compiler in eliminating the redundant bank switching codes introduced and deciding the optimum data allocation to banked memory is presented in this work. A relation matrix formed for the memory bank state transition corresponding to each bank selection instruction is used for the detection of redundant codes. Data allocation to memory is done by considering all possible permutation of memory banks and combination of data. The compiler output corresponding to each data mapping scheme is subjected to a static machine code analysis which identifies the one with minimum number of bank switching codes. Even though the method is compiler independent, the algorithm utilizes certain architectural features of the target processor. A prototype based on PIC 16F87X microcontrollers is described. This method scales well into larger number of memory blocks and other architectures so that high performance compilers can integrate this technique for efficient code generation. The technique is illustrated with an example