968 resultados para checking
Resumo:
Identificación y caracterización del problema. Uno de los problemas más importantes asociados con la construcción de software es la corrección del mismo. En busca de proveer garantías del correcto funcionamiento del software, han surgido una variedad de técnicas de desarrollo con sólidas bases matemáticas y lógicas conocidas como métodos formales. Debido a su naturaleza, la aplicación de métodos formales requiere gran experiencia y conocimientos, sobre todo en lo concerniente a matemáticas y lógica, por lo cual su aplicación resulta costosa en la práctica. Esto ha provocado que su principal aplicación se limite a sistemas críticos, es decir, sistemas cuyo mal funcionamiento puede causar daños de magnitud, aunque los beneficios que sus técnicas proveen son relevantes a todo tipo de software. Poder trasladar los beneficios de los métodos formales a contextos de desarrollo de software más amplios que los sistemas críticos tendría un alto impacto en la productividad en tales contextos. Hipótesis. Contar con herramientas de análisis automático es un elemento de gran importancia. Ejemplos de esto son varias herramientas potentes de análisis basadas en métodos formales, cuya aplicación apunta directamente a código fuente. En la amplia mayoría de estas herramientas, la brecha entre las nociones a las cuales están acostumbrados los desarrolladores y aquellas necesarias para la aplicación de estas herramientas de análisis formal sigue siendo demasiado amplia. Muchas herramientas utilizan lenguajes de aserciones que escapan a los conocimientos y las costumbres usuales de los desarrolladores. Además, en muchos casos la salida brindada por la herramienta de análisis requiere cierto manejo del método formal subyacente. Este problema puede aliviarse mediante la producción de herramientas adecuadas. Otro problema intrínseco a las técnicas automáticas de análisis es cómo se comportan las mismas a medida que el tamaño y complejidad de los elementos a analizar crece (escalabilidad). Esta limitación es ampliamente conocida y es considerada crítica en la aplicabilidad de métodos formales de análisis en la práctica. Una forma de atacar este problema es el aprovechamiento de información y características de dominios específicos de aplicación. Planteo de objetivos. Este proyecto apunta a la construcción de herramientas de análisis formal para contribuir a la calidad, en cuanto a su corrección funcional, de especificaciones, modelos o código, en el contexto del desarrollo de software. Más precisamente, se busca, por un lado, identificar ambientes específicos en los cuales ciertas técnicas de análisis automático, como el análisis basado en SMT o SAT solving, o el model checking, puedan llevarse a niveles de escalabilidad superiores a los conocidos para estas técnicas en ámbitos generales. Se intentará implementar las adaptaciones a las técnicas elegidas en herramientas que permitan su uso a desarrolladores familiarizados con el contexto de aplicación, pero no necesariamente conocedores de los métodos o técnicas subyacentes. Materiales y métodos a utilizar. Los materiales a emplear serán bibliografía relevante al área y equipamiento informático. Métodos. Se emplearán los métodos propios de la matemática discreta, la lógica y la ingeniería de software. Resultados esperados. Uno de los resultados esperados del proyecto es la individualización de ámbitos específicos de aplicación de métodos formales de análisis. Se espera que como resultado del desarrollo del proyecto surjan herramientas de análisis cuyo nivel de usabilidad sea adecuado para su aplicación por parte de desarrolladores sin formación específica en los métodos formales utilizados. Importancia del proyecto. El principal impacto de este proyecto será la contribución a la aplicación práctica de técnicas formales de análisis en diferentes etapas del desarrollo de software, con la finalidad de incrementar su calidad y confiabilidad. A crucial factor for software quality is correcteness. Traditionally, formal approaches to software development concentrate on functional correctness, and tackle this problem basically by being based on well defined notations founded on solid mathematical grounds. This makes formal methods better suited for analysis, due to their precise semantics, but they are usually more complex, and require familiarity and experience with the manipulation of mathematical definitions. So, their acceptance by software engineers is rather restricted, and formal methods applications have been confined to critical systems. Nevertheless, it is obvious that the advantages that formal methods provide apply to any kind of software system. It is accepted that appropriate software tool support for formal analysis is essential, if one seeks providing support for software development based on formal methods. Indeed, some of the relatively recent sucesses of formal methods are accompanied by good quality tools that automate powerful analysis mechanisms, and are even integrated in widely used development environments. Still, most of these tools either concentrate on code analysis, and in many cases are still far from being simple enough to be employed by software engineers without experience in formal methods. Another important problem for the adoption of tool support for formal methods is scalability. Automated software analysis is intrinsically complex, and thus techniques do not scale well in the general case. In this project, we will attempt to identify particular modelling, design, specification or coding activities in software development processes where to apply automated formal analysis techniques. By focusing in very specific application domains, we expect to find characteristics that might be exploited to increase the scalability of the corresponding analyses, compared to the general case.
Resumo:
La programación concurrente es una tarea difícil aún para los más experimentados programadores. Las investigaciones en concurrencia han dado como resultado una gran cantidad de mecanismos y herramientas para resolver problemas de condiciones de carrera de datos y deadlocks, problemas que surgen por el mal uso de los mecanismos de sincronización. La verificación de propiedades interesantes de programas concurrentes presenta dificultades extras a los programas secuenciales debido al no-determinismo de su ejecución, lo cual resulta en una explosión en el número de posibles estados de programa, haciendo casi imposible un tratamiento manual o aún con la ayuda de computadoras. Algunos enfoques se basan en la creación de lenguajes de programación con construcciones con un alto nivel de abstración para expresar concurrencia y sincronización. Otros enfoques tratan de desarrollar técnicas y métodos de razonamiento para demostrar propiedades, algunos usan demostradores de teoremas generales, model-checking o algortimos específicos sobre un determinado sistema de tipos. Los enfoques basados en análisis estático liviano utilizan técnicas como interpretación abstracta para detectar ciertos tipos de errores, de una manera conservativa. Estas técnicas generalmente escalan lo suficiente para aplicarse en grandes proyectos de software pero los tipos de errores que pueden detectar es limitada. Algunas propiedades interesantes están relacionadas a condiciones de carrera y deadlocks, mientras que otros están interesados en problemas relacionados con la seguridad de los sistemas, como confidencialidad e integridad de datos. Los principales objetivos de esta propuesta es identificar algunas propiedades de interés a verificar en sistemas concurrentes y desarrollar técnicas y herramientas para realizar la verificación en forma automática. Para lograr estos objetivos, se pondrá énfasis en el estudio y desarrollo de sistemas de tipos como tipos dependientes, sistema de tipos y efectos, y tipos de efectos sensibles al flujo de datos y control. Estos sistemas de tipos se aplicarán a algunos modelos de programación concurrente como por ejemplo, en Simple Concurrent Object-Oriented Programming (SCOOP) y Java. Además se abordarán propiedades de seguridad usando sistemas de tipos específicos. Concurrent programming has remained a dificult task even for very experienced programmers. Concurrency research has provided a rich set of tools and mechanisms for dealing with data races and deadlocks that arise of incorrect use of synchronization. Verification of most interesting properties of concurrent programs is a very dificult task due to intrinsic non-deterministic nature of concurrency, resulting in a state explosion which make it almost imposible to be manually treat and it is a serious challenge to do that even with help of computers. Some approaches attempts create programming languages with higher levels of abstraction for expressing concurrency and synchronization. Other approaches try to develop reasoning methods to prove properties, either using general theorem provers, model-checking or specific algorithms on some type systems. The light-weight static analysis approach apply techniques like abstract interpretation to find certain kind of bugs in a conservative way. This techniques scale well to be applied in large software projects but the kind of bugs they may find are limited. Some interesting properties are related to data races and deadlocks, while others are interested in some security problems like confidentiality and integrity of data. The main goals of this proposal is to identify some interesting properties to verify in concurrent systems and develop techniques and tools to do full automatic verification. The main approach will be the application of type systems, as dependent types, type and effect systems, and flow-efect types. Those type systems will be applied to some models for concurrent programming as Simple Concurrent Object-Oriented Programming (SCOOP) and Java. Other goals include the analysis of security properties also using specific type systems.
Resumo:
Este proyecto se enmarca en la utlización de métodos formales (más precisamente, en la utilización de teoría de tipos) para garantizar la ausencia de errores en programas. Por un lado se plantea el diseño de nuevos algoritmos de chequeo de tipos. Para ello, se proponen nuevos algoritmos basados en la idea de normalización por evaluación que sean extensibles a otros sistemas de tipos. En el futuro próximo extenderemos resultados que hemos conseguido recientemente [16,17] para obtener: una simplificación de los trabajos realizados para sistemas sin regla eta (acá se estudiarán dos sistemas: a la Martin Löf y a la PTS), la formulación de estos chequeadores para sistemas con variables, generalizar la noción de categoría con familia utilizada para dar semántica a teoría de tipos, obtener una formulación categórica de la noción de normalización por evaluación y finalmente, aplicar estos algoritmos a sistemas con reescrituras. Para los primeros resultados esperados mencionados, nos proponemos como método adaptar las pruebas de [16,17] a los nuevos sistemas. La importancia radica en que permitirán tornar más automatizables (y por ello, más fácilmente utilizables) los asistentes de demostración basados en teoría de tipos. Por otro lado, se utilizará la teoría de tipos para certificar compiladores, intentando llevar adelante la propuesta nunca explorada de [22] de utilizar un enfoque abstracto basado en categorías funtoriales. El método consistirá en certificar el lenguaje "Peal" [29] y luego agregar sucesivamente funcionalidad hasta obtener Forsythe [23]. En este período esperamos poder agregar varias extensiones. La importancia de este proyecto radica en que sólo un compilador certificado garantiza que un programa fuente correcto se compile a un programa objeto correcto. Es por ello, crucial para todo proceso de verificación que se base en verificar código fuente. Finalmente, se abordará la formalización de sistemas con session types. Los mismos han demostrado tener fallas en sus formulaciones [30], por lo que parece conveniente su formalización. Durante la marcha de este proyecto, esperamos tener alguna formalización que dé lugar a un algoritmo de chequeo de tipos y a demostrar las propiedades usuales de los sistemas. La contribución es arrojar un poco de luz sobre estas formulaciones cuyos errores revelan que el tema no ha adquirido aún suficiente madurez o comprensión por parte de la comunidad. This project is about using type theory to garantee program correctness. It follows three different directions: 1) Finding new type-checking algorithms based on normalization by evaluation. First, we would show that recent results like [16,17] extend to other type systems like: Martin-Löf´s type theory without eta rule, PTSs, type systems with variables (in addition to systems in [16,17] which are a la de Bruijn), systems with rewrite rules. This will be done by adjusting the proofs in [16,17] so that they apply to such systems as well. We will also try to obtain a more general definition of categories with families and normalization by evaluation, formulated in categorical terms. We expect this may turn proof-assistants more automatic and useful. 2) Exploring the proposal in [22] to compiler construction for Algol-like languages using functorial categories. According to [22] such approach is suitable for verifying compiler correctness, claim which was never explored. First, the language Peal [29] will be certified in type theory and we will gradually add funtionality to it until a correct compiler for the language Forsythe [23] is obtained. 3) Formilizing systems for session types. Several proposals have shown to be faulty [30]. This means that a formalization of it may contribute to the general understanding of session types.
Resumo:
ABSTRACT Male gladiator frogs of Hypsiboas Wagler, 1830 build nests on available substrate surrounding ponds and streams where female spawn eggs during the breeding period. Although gladiator frogs seem to show plasticity in the way they construct their nests, there is no study reporting if these species present preferences about microhabitat conditions for nest-building (mainly under subtropical climate). Predation pressure and environmental conditions have been considered major processes shaping the great diversity of reproductive strategies performed by amphibians, but microhabitat conditions should explain where to build a nest as well as how nest looks. This study aimed to test nest site selection for nest-building by Hypsiboas faber(Wied-Neuwied, 1821), determining which factors are related to nest site selection and nest features. The survey was conducted at margins of two permanent ponds in Southern Brazil. Habitat factors were evaluated in 18 plots with nest and 18 plots in the surrounding without nest (control), describing vegetation structure and heterogeneity, and substrate characteristics. Water temperature was measured inside the nest and in its adjacency. Nest features assessed were area, depth and temperature. Habitat characteristics differed between plots with and without nest. Microhabitat selected for nest-building was characterized by great vegetation cover and height, as well as shallower water and lower cover of organic matter in suspension than in plots without nest. Differences between temperature inside nest and in its adjacency were not observed. No relationship between nest features and habitat descriptors was evidenced. Results revealed that Hypsiboas faber does not build nests anywhere. Males seem to prefer more protected habitats, probably avoiding predation, invasion of conspecific males and inclement weather. Lack of differences between temperature inside- and outside-nest suggest that nest do not improve this condition for eggs and tadpole development. Nest architecture was not related to habitat characteristics, which may be determined by other factors, as nest checking by females before amplexus. Nest site selection should increase offspring survival as well the breeding success of Hypsiboas faber.
Resumo:
Arrangement of potassium in the tissues having been mentioned, as well as the rôle it plays in some pathological processes such as suprarenal insufficiency, anaphylactic shock and shock caused by hemorrhage or traumatism, experiences were undertaken to establish the rates of plasma potassium during bacteria infections artificially developed in rabbits by K. pneumoniae. P. aeruginosa and S. enteridits. It was concluded that during the period of the infections, the rate of potassium of the plasma increases almost immediately after the inoculation and stays high when the infections are of a serious or mortal character; the rate continue to increase until the death of the animal occurs. When these infections are not very serious, as in the cases of infections resulting from inoculations of bacteria as not recent and consequently with attenuated virulence K pneumoniae, or P aeruginosa and S enteriditis, to which rabbits are naturally very resistant, the rate of potassium of the plasma increases after an intravenous inoculation of germs according to the septicemic period of the infection; however, when, because of its natural resistance, the animal overcomes the infection, the amount of potassium gradually decreases and finally gets back to the normal rate. The action of cortin on potassium of the plasma was also tested on animals suffering from acute infections caused by K. pneumoniae, which, under normal conditions cause death of the rabbits, nor did it increase the rate of potassium of the plasma when a larger amount of bacteria (300,000,000) was inoculated. However, cortin inoculated several times prevented a higher rate of potassium in the plasma during the development of the infection when a smaller number of bacteria (150,000,000) was inoculated, which quantity, under normal conditions, always causes mortal infections. When cortin is discontinued 20 hours after the inoculation of germs, the infection increases fastly and the animal dies in a very short time. Now, if the injections of cortin continue to be given every hour until the 26th hour instead of only until the 20th hour, the amount of potassium in the plasma very high if the hormones substance is no longer inoculated gradually becomes smaller and finally comes back to the normal rate if the inoculations continue to be made; it will increase again only if the substance is no longer injected; after a few hours the injection is gone, potassium is found to come back to its former rate, and in consequence the animal is perfectly cured of an infection otherwise mortal. ln view of the results thus obtained, it was concluded that, during the development of those infections, the checking of the rate of potassium of the plasma provided a means of controlling the resistance of a body suffering from an infection, that rate increasing when the infection is developing and becoming more severe, or getting back to normal when the infection decreases. The checking of the rate of potassium of the plasma also made known the action of cortin on the tissues, which is found to control the permeability of the cells to potassium. Suggestions were made that potassium of the plasma be thereofre checked during infections in the human body, to make possible proving that the phenomena studied in those animals also take place in the human body. In case this is found to be true, we sould possess an important element to check organic vitality during infections.
Resumo:
Recently there has been a renewed research interest in the properties of non survey updates of input-output tables and social accounting matrices (SAM). Along with the venerable and well known scaling RAS method, several alternative new procedures related to entropy minimization and other metrics have been suggested, tested and used in the literature. Whether these procedures will eventually substitute or merely complement the RAS approach is still an open question without a definite answer. The performance of many of the updating procedures has been tested using some kind of proximity or closeness measure to a reference input-output table or SAM. The first goal of this paper, in contrast, is the proposal of checking the operational performance of updating mechanisms by way of comparing the simulation results that ensue from adopting alternative databases for calibration of a reference applied general equilibrium model. The second goal is to introduce a new updatin! g procedure based on information retrieval principles. This new procedure is then compared as far as performance is concerned to two well-known updating approaches: RAS and cross-entropy. The rationale for the suggested cross validation is that the driving force for having more up to date databases is to be able to conduct more current, and hopefully more credible, policy analyses.
Resumo:
Aquest treball que porta per títol variables efectives de l’empowerment es el treball investigació del programa de doctorat Interuniversitari en Organització i Administració d’Empreses. El treball està composat per tres parts diferenciades. La primera part del treball consisteix amb el comentari de vint articles relacionats amb la motivació, el downsizing i l’empowerment. Els resums exposats han servit per establir els fonaments teòrics previs al model proposat de variables efectives d’empowerment. La segona part consisteix amb l’elaboració d’un article que resumeix les principals fonts consultades i proposa un model de classificació de les variables que poden contribuir a aconseguir amb èxit un procés d’empowerment. Les variables efectives es poden dividir en variables recíproques, variables unidireccionals, variables compartides i variables reflexives. La tercera part i amb l’objectiu de comprovar la validesa de model s’ha desenvolupat un qüestionari per mesurar l’estat de les variables anomenades efectives d’empowerment i la seva contribució amb l’èxit del procés. Es descriu l’eina desenvolupada, el tractament i la representació de les dades obtingudes. Finalment es pot trobar els primers resultats de la prova pilot realitzada per provar el model conceptual proposat.
Resumo:
Estudi elaborat a partir d’una estada a Xerox Research Centre Europe a Grenoble, França,entre juny i desembre del 2006. El projecte tradueïx termes tècnics anglesos a noruec. És asimètric perquè no tenim recursos lingüístics per a la llengua noruega, però solament per a l'anglès. S’ha desenvolupat i posat en pràctica mètodes que comprovaven contigüitat ("local reordering" i permutació selectiva) per a millorar el funcionament d’una eina anterior. Contigüitat és quan una paraula es traduïx en paraules múltiples, aquestes paraules han de ser adjacents en l'oració. A més, s’ha construït una taula de les operacions de recerca per als termes tècnics i s’ha integrat aquesta taula en un programa de demostració.
Resumo:
Cada vez es más habitual encontrar tanto el software como el hardware común de las empresas distribuido y gestionado en diferentes servidores que se encargan de servir al usuario aquello que necesita sólo cuando éste lo pide. Este sistema de distribución de la información se llama centralización. Este sistema de distribución requiere un mantenimiento constante para así poder atender todas las demandas de los usuarios. El mantenimiento se convierte, gracias a la centralización en algo relativamente sencillo puesto que sólo es en el servidor donde se tienen que realizar los cambios, actualizaciones o instalación de nuevo software. Es importante entonces comprobar que estas nuevas actualizaciones del servidor responderán correctamente cuando los usuarios las requieran remotamente. En este proyecto nos hemos encargado de analizar cómo se realizan las comprobaciones necesarias para asegurar el correcto funcionamiento de los servidores remotos considerando tanto el entorno en el que se realizan como las herramientas necesarias para llevarlo a cabo. Para completar la información nos hemos centrado en un ejemplo particular de test de carga.
Resumo:
Report for the scientific sojourn at the University of Linköping between April to July 2007. Monitoring of the air intake system of an automotive engine is important to meet emission related legislative diagnosis requirements. During the research the problem of fault detection in the air intake system was stated as a constraint satisfaction problem over continuous domains with a big number of variables and constraints. This problem was solved using Interval-based Consistency Techniques. Interval-based consistency techniques are shown to be particularly efficient for checking the consistency of the Analytical Redundancy Relations (ARRs), dealing with uncertain measurements and parameters, and using experimental data. All experiments were performed on a four-cylinder turbo-charged spark-ignited SAAB engine located in the research laboratory at Vehicular System Group - University of Linköping.
Resumo:
This paper considers the instrumental variable regression model when there is uncertainty about the set of instruments, exogeneity restrictions, the validity of identifying restrictions and the set of exogenous regressors. This uncertainty can result in a huge number of models. To avoid statistical problems associated with standard model selection procedures, we develop a reversible jump Markov chain Monte Carlo algorithm that allows us to do Bayesian model averaging. The algorithm is very exible and can be easily adapted to analyze any of the di¤erent priors that have been proposed in the Bayesian instrumental variables literature. We show how to calculate the probability of any relevant restriction (e.g. the posterior probability that over-identifying restrictions hold) and discuss diagnostic checking using the posterior distribution of discrepancy vectors. We illustrate our methods in a returns-to-schooling application.
Resumo:
A aquest estudi s’ha analitzat si és viable l’autosuficiència energètica en base a un estudi pilot al nucli d’Araós a partir dels recursos renovables locals. S’ha realitzat un anàlisi del consum energètic del nucli d’Araós i s’ha comparat amb el potencial de producció energètica dels recursos renovables locals, incloent energia provinent de la biomassa forestal dels boscos de què disposa el municipi d’Alins i energia solar. Igualment s’han analitzat les emissions de CO2 derivades del consum energètic del poble. S’ha comprovat així que la mitjana de consum per habitant i any d’Araós supera en 1Tep a la mitjana de Catalunya. El 38% del consum d’Araós però, prové de biomassa forestal local, que compta amb unes emissions de CO2 associades pràcticament nul·les. Finalment s’ha detectat que és possible assolir l’autosuficiència energètica d’Araós, mitjançant diferents estratègies d’implantació d’energies renovables. S’han considerat dues estratègies que cobreixen de 3 a 5 vegades el consum energètic: estratègia individual amb instal·lació d’energia solar en teulada i, calefacció i ACS a partir de calderes de biomassa; estratègia col·lectiva mitjançant una central de biomassa forestal. Ambdues representen beneficis energètics, econòmics i fins un 92% de reducció d’emissions de CO2.
Resumo:
Treball de recerca realitzat per un alumne d'ensenyament secundari i guardonat amb un Premi CIRIT per fomentar l'esperit científic del Jovent l'any 2009. L’objectiu del treball era el de comprovar si era possible provocar un procés d'eutrofització en unes peixeres, com a simulació del procés que es dóna de forma natural en alguns llacs i basses del nostre país. Mantenint una peixera de control, en les altres dues hi provocàvem un excés de nutrients abocant fertilitzant sintètic en diferents concentracions per tal de comprovar les diferències causades per aquest procés de contaminació ambiental. Una vegada fet l'experiment, tot i que no s’ha aconseguit un alt grau d’eutrofització i per tant, no s’ha pogut demostrar moltes de les conseqüències d’aquest procés, sí que s’ha aconseguit dur a terme una contaminació i s’ha pogut observar com evoluciona un medi alterat per l’home respecte un ecosistema amb òptimes condicions. Al comparar aquest experiment amb la realitat actual s’observa que tots els canvis que han succeït a petita escala en aquests ecosistemes, en la natura, es produeixen en un major grau i amb unes conseqüències molt més adverses pels organismes.
Resumo:
Treball de recerca realitzat per alumnes d'ensenyament secundari i guardonat amb un Premi CIRIT per fomentar l'esperit científic del Jovent l'any 2009. Aquest treball es tracta en la creació d’un projecte empresarial, és a dir, d’una planificació estratègica que afecta a tots els àmbits de la empresa al llarg d’un període de temps i que té per objectiu analitzar la viabilitat, examinar els objectius i descobrir els inconvenients del mateix. En concret s’ha projectat és un hostal ‘low cost’. Alhora de comprovar la viabilitat del projecte, s’han hagut de realitzar els tests corresponents per saber si tindria èxit o no. I tots han demostrat un resultat factible, ja que, encara que van sorgir problemes amb l’acceptació d’aquest nou estil, concretament en el fet d’haver de compartir habitació amb altres persones, al poder oferir altres tipus d’habitacions i en el cas de compartir habitació donar molta seguretat, els anàlisis ens han donat uns resultats acceptables. S’han realitzat també quadres financers, préstecs, calculat les despeses d’inici d’empresa i de manteniment, publicitat, despeses de personal, i finalment aquest també han donat un resultat de viabilitat positiu.
Molecular Genetic Analysis of Multi-drug Resistance in Indian Isolates of Mycobacterium tuberculosis
Resumo:
A total of 116 isolates from patients attending the out-patient department at the All India Institute of Medical Sciences, New Delhi and the New Delhi Tuberculosis Centre, New Delhi, India were collected. They were analyzed for resistance to drugs prescribed in the treatment for tuberculosis. The drug resistance was initially determined by microbiological techniques. The Bactec 460TB system was employed to determine the type and level of resistance in each isolate. The isolates were further characterized at molecular level. The multi-drug loci corresponding to rpo b, gyr A, kat G were studied for mutation(s) by the polymerase chain reaction-single strand conformational polymorphism (PCR-SSCP) technique. The SSCP positive samples were sequenced to characterize the mutations in rpo b, and gyr A loci. While previously reported mutations in the gyr A and rpo b loci were found to be present, several novel mutations were also scored in the rpo b locus. Interestingly, analysis of the gyr A locus showed the presence of point mutation(s) that could not be detected by PCR-SSCP. Furthermore, rifampicin resistance was found to be an important marker for checking multi-drug resistance (MDR) in clinical isolates of Mycobacterium tuberculosis. This is the first report on molecular genetic analysis of MDR tuberculosis one from India, highlights the increasing incidence of MDR in the Indian isolates of M. tuberculosis.