993 resultados para code analysis


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Ce mémoire propose d’étudier les représentations de la masculinité dans les vidéoclips de musique populaire. Il consiste plus précisément en une analyse textuelle de vidéoclips suivant l’approche sémiologique. La représentation y est entendue comme un processus d’attribution de sens, agissant dans la construction sociale de la masculinité. Selon une méthode qualitative, il est premièrement question de cerner et, ultérieurement, explorer les principaux schémas de la masculinité dans un corpus de 29 vidéoclips sélectionné auprès de la chaîne québécoise Musique Plus. L’observation des codes visuels est centrale à cette entreprise, l’articulation de ces derniers permettant la prolifération d’expressions du genre masculin. Partant du point de vue que des attributs, notamment la force et l’invulnérabilité, apparaissent comme typiquement masculins au sein de certaines représentations, il sera question de confronter cette idée aux trois scénarios majeurs ayant émané du corpus ; l’homme-enfant, l’introspectif et le meneur, indiquant tous trois la récente montée des représentations d’une masculinité vulnérable en musique populaire. Les constats qui résulteront de cette exploration seront finalement recadrés dans l’actuel cadre social, où le masculin et le féminin sont de moins en moins enclos dans les moules traditionnels et tendent à se redéfinir sur une nouvelle matrice.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Traditionnellement, les applications orientées objets légataires intègrent différents aspects fonctionnels. Ces aspects peuvent être dispersés partout dans le code. Il existe différents types d’aspects : • des aspects qui représentent des fonctionnalités métiers ; • des aspects qui répondent à des exigences non fonctionnelles ou à d’autres considérations de conception comme la robustesse, la distribution, la sécurité, etc. Généralement, le code qui représente ces aspects chevauche plusieurs hiérarchies de classes. Plusieurs chercheurs se sont intéressés à la problématique de la modularisation de ces aspects dans le code : programmation orientée sujets, programmation orientée aspects et programmation orientée vues. Toutes ces méthodes proposent des techniques et des outils pour concevoir des applications orientées objets sous forme de composition de fragments de code qui répondent à différents aspects. La séparation des aspects dans le code a des avantages au niveau de la réutilisation et de la maintenance. Ainsi, il est important d’identifier et de localiser ces aspects dans du code légataire orienté objets. Nous nous intéressons particulièrement aux aspects fonctionnels. En supposant que le code qui répond à un aspect fonctionnel ou fonctionnalité exhibe une certaine cohésion fonctionnelle (dépendances entre les éléments), nous proposons d’identifier de telles fonctionnalités à partir du code. L’idée est d’identifier, en l’absence des paradigmes de la programmation par aspects, les techniques qui permettent l’implémentation des différents aspects fonctionnels dans un code objet. Notre approche consiste à : • identifier les techniques utilisées par les développeurs pour intégrer une fonctionnalité en l’absence des techniques orientées aspects • caractériser l’empreinte de ces techniques sur le code • et développer des outils pour identifier ces empreintes. Ainsi, nous présentons deux approches pour l’identification des fonctionnalités existantes dans du code orienté objets. La première identifie différents patrons de conception qui permettent l’intégration de ces fonctionnalités dans le code. La deuxième utilise l’analyse formelle de concepts pour identifier les fonctionnalités récurrentes dans le code. Nous expérimentons nos deux approches sur des systèmes libres orientés objets pour identifier les différentes fonctionnalités dans le code. Les résultats obtenus montrent l’efficacité de nos approches pour identifier les différentes fonctionnalités dans du code légataire orienté objets et permettent de suggérer des cas de refactorisation.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La révision du code est un procédé essentiel quelque soit la maturité d'un projet; elle cherche à évaluer la contribution apportée par le code soumis par les développeurs. En principe, la révision du code améliore la qualité des changements de code (patches) avant qu'ils ne soient validés dans le repertoire maître du projet. En pratique, l'exécution de ce procédé n'exclu pas la possibilité que certains bugs passent inaperçus. Dans ce document, nous présentons une étude empirique enquétant la révision du code d'un grand projet open source. Nous investissons les relations entre les inspections des reviewers et les facteurs, sur les plans personnel et temporel, qui pourraient affecter la qualité de telles inspections.Premiérement, nous relatons une étude quantitative dans laquelle nous utilisons l'algorithme SSZ pour détecter les modifications et les changements de code favorisant la création de bogues (bug-inducing changes) que nous avons lié avec l'information contenue dans les révisions de code (code review information) extraites du systéme de traçage des erreurs (issue tracking system). Nous avons découvert que les raisons pour lesquelles les réviseurs manquent certains bogues était corrélées autant à leurs caractéristiques personnelles qu'aux propriétés techniques des corrections en cours de revue. Ensuite, nous relatons une étude qualitative invitant les développeurs de chez Mozilla à nous donner leur opinion concernant les attributs favorables à la bonne formulation d'une révision de code. Les résultats de notre sondage suggèrent que les développeurs considèrent les aspects techniques (taille de la correction, nombre de chunks et de modules) autant que les caractéristiques personnelles (l'expérience et review queue) comme des facteurs influant fortement la qualité des revues de code.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’objectif de cette thèse est d’analyser et de comprendre la dynamique de la controverse autour de l’adoption en 2009 du code des personnes et de la famille au Mali. Elle s’intéresse particulièrement aux principaux enjeux, c'est-à-dire aux questions à l’origine de cette controverse ainsi qu’aux stratégies mises en place par les différents acteurs sociaux (les organisations islamiques et leurs alliés, d’une part, et d’autre part, les organisations féminines et les leurs) afin d’infléchir le processus. En plus du pourquoi et du comment de cette controverse, notre recherche visait à comprendre le bilan du processus tiré par les acteurs eux-mêmes, le sentiment qui les anime à l’issu de ce long processus, leur appréciation de leur expérience, et leur vision de l’avenir. Pour étudier cette problématique, nous avons choisi l’approche de l’action collective protestataire, laquelle s’inspire à la fois des théories de l’action collective, et de celles des mouvements sociaux et des dynamiques contestataires. Afin d’analyser les enjeux au cœur de cette controverse, les stratégies utilisées par les acteurs ainsi que leur bilan du processus, nous avons opté pour une démarche qualitative. En plus de la littérature grise, des articles de presse, documents audio et audiovisuels sur le sujet, notre travail de terrain de quatre mois dans la capitale malienne nous a permis de réaliser plusieurs entrevues auprès des acteurs impliqués dans ce processus. S’étendant de 1996 à 2011, soit seize ans, l’élaboration du code des personnes et de la famille au Mali fut un processus long, complexe, inhabituel et controversé. Les résultats de notre recherche révèlent que plusieurs enjeux, notamment sociaux, étaient au cœur de cette controverse : le «devoir d’obéissance » de la femme à son mari, la légalisation du mariage religieux, l’« égalité » entre fille et garçon en matière d’héritage et de succession et la reconnaissance de l’enfant naturel ont été les questions qui ont suscité le plus de débats. Si durant tout le processus, les questions relatives à l’égalité de genre, au respect des droits de la femme et de l’enfant, étaient les arguments défendus par les organisations féminines et leurs alliés, celles relatives au respect des valeurs religieuses (islamiques), sociétales ou socioculturelles maliennes étaient, par contre, mises de l’avant par les organisations islamiques et leurs alliés. Ainsi, si le discours des OSC féminines portait essentiellement sur le « respect de l’égalité des sexes » conformément aux engagements internationaux signés par le Mali, celui des OSC islamiques s’est, en revanche, centré sur le « respect des valeurs islamiques et socioculturelles » du Mali. Quant aux canaux de communication, les OSC féminines se sont focalisées sur les canaux classiques comme la presse, les radios, les conférences, entre autres. Les OSC islamiques ont également utilisé ces canaux, mais elles se sont distinguées des OSC féminines en utilisant aussi les prêches. Organisés généralement dans les mosquées et autres espaces désignés à cet effet, ces prêches ont consacré la victoire des OSC islamiques. Les radios islamiques ont joué elles aussi un rôle important dans la transmission de leurs messages. Pour ce qui est des stratégies d’actions, l’action collective qui a changé la donne en faveur des OSC islamiques (renvoi du code en seconde lecture, prise en compte de leurs idées), a été le meeting du 22 août 2009 à Bamako, précédé de marches de protestation dans la capitale nationale et toutes les capitales régionales du pays. Quant aux OSC féminines, elles n’ont mené que quelques actions classiques (ou habituelle) comme les pétitions, le plaidoyer-lobbying, les conférences-débats, au point que certains observateurs ont parlé de « stratégie d’inaction » chez elles. L’analyse a également révélé l’utilisation de stratégies inusitées de menaces et d’intimidation par certains acteurs du camp des OSC islamiques à l’endroit des partisans du code. Si chaque groupe d’acteurs a noué des alliances avec des acteurs locaux, les OSC féminines sont les seules à reconnaitre des alliances avec les acteurs extérieurs. Aujourd’hui, si la plupart des membres des OSC islamiques ne cachent pas leur satisfaction face à leur « victoire » et se présentent en « sauveur de la nation malienne », la plupart des membres des OSC féminines se disent, quant à elles, très « déçues » et « indignées » face à l’adoption du code actuel. Elles ne comprennent pas pourquoi d’un « code progressiste », le Mali s’est retrouvé avec un « code rétrograde et discriminatoire » envers les femmes. La thèse confirme non seulement la difficile conciliation entre droit coutumier, loi islamique et droit « moderne », mais également l’idée que le droit demeure l’expression des rapports de pouvoir et de domination. Enfin, notre recherche confirme la désormais incontournable influence des acteurs religieux sur le processus d’élaboration des politiques publiques au Mali.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cryptosystem using linear codes was developed in 1978 by Mc-Eliece. Later in 1985 Niederreiter and others developed a modified version of cryptosystem using concepts of linear codes. But these systems were not used frequently because of its larger key size. In this study we were designing a cryptosystem using the concepts of algebraic geometric codes with smaller key size. Error detection and correction can be done efficiently by simple decoding methods using the cryptosystem developed. Approach: Algebraic geometric codes are codes, generated using curves. The cryptosystem use basic concepts of elliptic curves cryptography and generator matrix. Decrypted information takes the form of a repetition code. Due to this complexity of decoding procedure is reduced. Error detection and correction can be carried out efficiently by solving a simple system of linear equations, there by imposing the concepts of security along with error detection and correction. Results: Implementation of the algorithm is done on MATLAB and comparative analysis is also done on various parameters of the system. Attacks are common to all cryptosystems. But by securely choosing curve, field and representation of elements in field, we can overcome the attacks and a stable system can be generated. Conclusion: The algorithm defined here protects the information from an intruder and also from the error in communication channel by efficient error correction methods.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The present research problem is to study the existing encryption methods and to develop a new technique which is performance wise superior to other existing techniques and at the same time can be very well incorporated in the communication channels of Fault Tolerant Hard Real time systems along with existing Error Checking / Error Correcting codes, so that the intention of eaves dropping can be defeated. There are many encryption methods available now. Each method has got it's own merits and demerits. Similarly, many crypt analysis techniques which adversaries use are also available.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Modern computer systems are plagued with stability and security problems: applications lose data, web servers are hacked, and systems crash under heavy load. Many of these problems or anomalies arise from rare program behavior caused by attacks or errors. A substantial percentage of the web-based attacks are due to buffer overflows. Many methods have been devised to detect and prevent anomalous situations that arise from buffer overflows. The current state-of-art of anomaly detection systems is relatively primitive and mainly depend on static code checking to take care of buffer overflow attacks. For protection, Stack Guards and I-leap Guards are also used in wide varieties.This dissertation proposes an anomaly detection system, based on frequencies of system calls in the system call trace. System call traces represented as frequency sequences are profiled using sequence sets. A sequence set is identified by the starting sequence and frequencies of specific system calls. The deviations of the current input sequence from the corresponding normal profile in the frequency pattern of system calls is computed and expressed as an anomaly score. A simple Bayesian model is used for an accurate detection.Experimental results are reported which show that frequency of system calls represented using sequence sets, captures the normal behavior of programs under normal conditions of usage. This captured behavior allows the system to detect anomalies with a low rate of false positives. Data are presented which show that Bayesian Network on frequency variations responds effectively to induced buffer overflows. It can also help administrators to detect deviations in program flow introduced due to errors.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Embedded systems are usually designed for a single or a specified set of tasks. This specificity means the system design as well as its hardware/software development can be highly optimized. Embedded software must meet the requirements such as high reliability operation on resource-constrained platforms, real time constraints and rapid development. This necessitates the adoption of static machine codes analysis tools running on a host machine for the validation and optimization of embedded system codes, which can help meet all of these goals. This could significantly augment the software quality and is still a challenging field.Embedded systems are usually designed for a single or a specified set of tasks. This specificity means the system design as well as its hardware/software development can be highly optimized. Embedded software must meet the requirements such as high reliability operation on resource-constrained platforms, real time constraints and rapid development. This necessitates the adoption of static machine codes analysis tools running on a host machine for the validation and optimization of embedded system codes, which can help meet all of these goals. This could significantly augment the software quality and is still a challenging field.Embedded systems are usually designed for a single or a specified set of tasks. This specificity means the system design as well as its hardware/software development can be highly optimized. Embedded software must meet the requirements such as high reliability operation on resource-constrained platforms, real time constraints and rapid development. This necessitates the adoption of static machine codes analysis tools running on a host machine for the validation and optimization of embedded system codes, which can help meet all of these goals. This could significantly augment the software quality and is still a challenging field.Embedded systems are usually designed for a single or a specified set of tasks. This specificity means the system design as well as its hardware/software development can be highly optimized. Embedded software must meet the requirements such as high reliability operation on resource-constrained platforms, real time constraints and rapid development. This necessitates the adoption of static machine codes analysis tools running on a host machine for the validation and optimization of embedded system codes, which can help meet all of these goals. This could significantly augment the software quality and is still a challenging field.This dissertation contributes to an architecture oriented code validation, error localization and optimization technique assisting the embedded system designer in software debugging, to make it more effective at early detection of software bugs that are otherwise hard to detect, using the static analysis of machine codes. The focus of this work is to develop methods that automatically localize faults as well as optimize the code and thus improve the debugging process as well as quality of the code.Validation is done with the help of rules of inferences formulated for the target processor. The rules govern the occurrence of illegitimate/out of place instructions and code sequences for executing the computational and integrated peripheral functions. The stipulated rules are encoded in propositional logic formulae and their compliance is tested individually in all possible execution paths of the application programs. An incorrect sequence of machine code pattern is identified using slicing techniques on the control flow graph generated from the machine code.An algorithm to assist the compiler to eliminate the redundant bank switching codes and decide on optimum data allocation to banked memory resulting in minimum number of bank switching codes in embedded system software is proposed. A relation matrix and a state transition diagram formed for the active memory bank state transition corresponding to each bank selection instruction is used for the detection of redundant codes. Instances of code redundancy based on the stipulated rules for the target processor are identified.This validation and optimization tool can be integrated to the system development environment. It is a novel approach independent of compiler/assembler, applicable to a wide range of processors once appropriate rules are formulated. Program states are identified mainly with machine code pattern, which drastically reduces the state space creation contributing to an improved state-of-the-art model checking. Though the technique described is general, the implementation is architecture oriented, and hence the feasibility study is conducted on PIC16F87X microcontrollers. The proposed tool will be very useful in steering novices towards correct use of difficult microcontroller features in developing embedded systems.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Code clones are portions of source code which are similar to the original program code. The presence of code clones is considered as a bad feature of software as the maintenance of software becomes difficult due to the presence of code clones. Methods for code clone detection have gained immense significance in the last few years as they play a significant role in engineering applications such as analysis of program code, program understanding, plagiarism detection, error detection, code compaction and many more similar tasks. Despite of all these facts, several features of code clones if properly utilized can make software development process easier. In this work, we have pointed out such a feature of code clones which highlight the relevance of code clones in test sequence identification. Here program slicing is used in code clone detection. In addition, a classification of code clones is presented and the benefit of using program slicing in code clone detection is also mentioned in this work.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This is a brief report of a research project, coordinated by me and funded by the Portuguese Government. It studies ‘The Representation of the Feminine in the Portuguese Press’ (POCI/COM 55780/2004), and works on the content analysis of discourse on the feminine in various Portuguese newspapers, covering the time span of February 1st till April 30th 2006. The paper is divided into two parts: in the first part, I will briefly discuss the typology used to code the text units of selected articles; in the second part, I will explore the most expressive percentages of the first two weeks of February for the content analysis of the Diário de Notícias newspaper. These percentages were obtained with the NVivo 6 qualitative data treatment software programme.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The variogram is essential for local estimation and mapping of any variable by kriging. The variogram itself must usually be estimated from sample data. The sampling density is a compromise between precision and cost, but it must be sufficiently dense to encompass the principal spatial sources of variance. A nested, multi-stage, sampling with separating distances increasing in geometric progression from stage to stage will do that. The data may then be analyzed by a hierarchical analysis of variance to estimate the components of variance for every stage, and hence lag. By accumulating the components starting from the shortest lag one obtains a rough variogram for modest effort. For balanced designs the analysis of variance is optimal; for unbalanced ones, however, these estimators are not necessarily the best, and the analysis by residual maximum likelihood (REML) will usually be preferable. The paper summarizes the underlying theory and illustrates its application with data from three surveys, one in which the design had four stages and was balanced and two implemented with unbalanced designs to economize when there were more stages. A Fortran program is available for the analysis of variance, and code for the REML analysis is listed in the paper. (c) 2005 Elsevier Ltd. All rights reserved.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The variogram is essential for local estimation and mapping of any variable by kriging. The variogram itself must usually be estimated from sample data. The sampling density is a compromise between precision and cost, but it must be sufficiently dense to encompass the principal spatial sources of variance. A nested, multi-stage, sampling with separating distances increasing in geometric progression from stage to stage will do that. The data may then be analyzed by a hierarchical analysis of variance to estimate the components of variance for every stage, and hence lag. By accumulating the components starting from the shortest lag one obtains a rough variogram for modest effort. For balanced designs the analysis of variance is optimal; for unbalanced ones, however, these estimators are not necessarily the best, and the analysis by residual maximum likelihood (REML) will usually be preferable. The paper summarizes the underlying theory and illustrates its application with data from three surveys, one in which the design had four stages and was balanced and two implemented with unbalanced designs to economize when there were more stages. A Fortran program is available for the analysis of variance, and code for the REML analysis is listed in the paper. (c) 2005 Elsevier Ltd. All rights reserved.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

We have compiled two comprehensive gene expression profiles from mature leaf and immature seed tissue of rice (Oryza sativa ssp. japonica cultivar Nipponbare) using Serial Analysis of Gene Expression (SAGE) technology. Analysis revealed a total of 50 519 SAGE tags, corresponding to 15 131 unique transcripts. Of these, the large majority (approximately 70%) occur only once in both libraries. Unexpectedly, the most abundant transcript (approximately 3% of the total) in the leaf library was derived from a type 3 metallothionein gene. The overall frequency profiles of the abundant tag species from both tissues differ greatly and reveal seed tissue as exhibiting a non-typical pattern of gene expression characterized by an over abundance of a small number of transcripts coding for storage proteins. A high proportion ( approximately 80%) of the abundant tags (> or = 9) matched entries in our reference rice EST database, with many fewer matches for low abundant tags. Singleton transcripts that are common to both tissues were collated to generate a summary of low abundant transcripts that are expressed constitutively in rice tissues. Finally and most surprisingly, a significant number of tags were found to code for antisense transcripts, a finding that suggests a novel mechanism of gene regulation, and may have implications for the use of antisense constructs in transgenic technology.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A full dimensional, ab initio-based semiglobal potential energy surface for C2H3+ is reported. The ab initio electronic energies for this molecule are calculated using the spin-restricted, coupled cluster method restricted to single and double excitations with triples corrections [RCCSD(T)]. The RCCSD(T) method is used with the correlation-consistent polarized valence triple-zeta basis augmented with diffuse functions (aug-cc-pVTZ). The ab initio potential energy surface is represented by a many-body (cluster) expansion, each term of which uses functions that are fully invariant under permutations of like nuclei. The fitted potential energy surface is validated by comparing normal mode frequencies at the global minimum and secondary minimum with previous and new direct ab initio frequencies. The potential surface is used in vibrational analysis using the "single-reference" and "reaction-path" versions of the code MULTIMODE. (c) 2006 American Institute of Physics.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A complete treatment of the charcterastic admittance-matrix representation of multilayer thin-film systems with absorbing media is presented. The algorithm from the systems analysis is implemented on an IBM microcomputer and some examples of filter design calculation are presented. Relevant source code in IBM Advanced Basic interpreter are also included.