978 resultados para Normalization constraint


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La violence chronique qui caractérise la Somalie depuis plus de deux décennies a forcé près de deux millions de personnes à fuir. Cette ethnographie étudie l’expérience de l’asile prolongé de jeunes Somaliens qui ont grandi au camp de Kakuma, au Kenya. Leur expérience est hors du commun, bien qu’un nombre croissant de réfugiés passent de longues années dans des camps pourtant conçus comme temporaires, en vertu de la durée des conflits et de la normalisation de pratiques de mise à l’écart de populations « indésirables ». Nous explorons la perception qu’ont ces jeunes de leur environnement et de quelle façon leur exil structure leur perception du passé et de leur pays d’origine, et de leur futur. Ce faisant, nous considérons à la fois les spécificités du contexte et l’environnement global, afin de comprendre comment l’expérience des gens est façonnée par (et façonne) les dynamiques sociales, politiques, économiques et historiques. Nous observons que le camp est, et demeure, un espace de confinement, indépendamment de sa durée d’existence ; bien que conçu comme un lieu de gestion rationnelle des populations, le camp devient un monde social où se développent de nouvelles pratiques ; les jeunes Somaliens font preuve d’agentivité et interprètent leur expérience de manière à rendre leur quotidien acceptable ; ces derniers expriment une frustration croissante lorsque leurs études sont terminées et qu’ils peinent à s’établir en tant qu’adultes, ce qui exacerbe leur désir de quitter le camp. En effet, même s’il existe depuis plus de 20 ans, le camp demeure un lieu de transition. L’expérience de jeunes Somaliens qui ont grandi dans un camp de réfugiés n’a pas été étudiée auparavant. Nous soutenons que cette expérience est caractérisée par des tensions entre contraintes et opportunités, mobilité et immobilité, isolation et connexion ou victimisation et affirmation du sujet – et des temporalités contradictoires. Cette étude souligne que des notions comme la convivialité ou la pluralité des appartenances développées dans la littérature sur la cohabitation interethnique dans les villes ou sur l’identité des migrants aident à appréhender le réalité du camp. Cette ethnographie montre également que, loin d’être des victimes passives, les réfugiés contribuent à trouver des solutions à leur exil.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans le sillage de la récession mondiale de 2008-09, plusieurs questions ont été soulevées dans la littérature économique sur les effets à court et à long terme de la politique budgétaire sur l’activité économique par rapport à son signe, sa taille et sa durée. Ceux-ci ont des implications importantes pour mieux comprendre les canaux de transmission et l’efficacité des politiques budgétaires, avec la politique monétaire étant poursuivi, ainsi que pour leurs retombées économiques. Cette thèse fait partie de ce regain d’intérêt de la littérature d’examiner comment les changements dans la politique budgétaire affectent l’activité économique. Elle repose alors sur trois essais: les effets macroéconomiques des chocs de dépenses publiques et des recettes fiscales, les résultats macroéconomiques de l’interaction entre les politiques budgétaire et monétaire et le lien entre la politique budgétaire et la répartition des revenus. Le premier chapitre examine les effets des chocs de politique budgétaire (chocs de dépenses publiques et chocs de recettes fiscales) sur l’économie canadienne au cours de la période 1970-2010, en s’appuyant sur la méthode d’identification des restrictions de signe développée par Mountford et Uhlig [2009]. En réponse à la récession mondiale, les autorités fiscales dans les économies avancées, dont le Canada ont généralement mis en oeuvre une approche en deux phases pour la politique budgétaire. Tout d’abord, ils ont introduit des plans de relance sans précédent pour relancer leurs économies. Par exemple, les mesures de relance au Canada, introduites à travers le Plan d’action économique du Canada, ont été projetées à 3.2 pour cent du PIB dans le budget fédéral de 2009 tandis que l’ "American Recovery and Reinvestment Act"(ARRA) a été estimé à 7 pour cent du PIB. Par la suite, ils ont mis en place des plans d’ajustement en vue de réduire la dette publique et en assurer la soutenabilité à long terme. Dans ce contexte, évaluer les effets multiplicateurs de la politique budgétaire est important en vue d’informer sur l'efficacité de telles mesures dans la relance ou non de l'activité économique. Les résultats montrent que les multiplicateurs d'impôt varient entre 0.2 et 0.5, tandis que les multiplicateurs de dépenses varient entre 0.2 et 1.1. Les multiplicateurs des dépenses ont tendance à être plus grand que les multiplicateurs des recettes fiscales au cours des deux dernières décennies. Comme implications de politique économique, ces résultats tendent à suggérer que les ajustements budgétaires par le biais de grandes réductions de dépenses publiques pourraient être plus dommageable pour l'économie que des ajustements budgétaires par la hausse des impôts. Le deuxième chapitre, co-écrit avec Constant Lonkeng Ngouana, estime les effets multiplicateurs des dépenses publiques aux Etats-Unis en fonction du cycle de la politique monétaire. Les chocs de dépenses publiques sont identifiés comme étant des erreurs de prévision du taux de croissance des dépenses publiques à partir des données d'Enquêtes des prévisionnistes professionnels et des informations contenues dans le "Greenbook". L'état de la politique monétaire est déduite à partir de la déviation du taux des fonds fédéraux du taux cible de la Réserve Fédérale, en faisant recours à une fonction lisse de transition. L'application de la méthode des «projections locales» aux données trimestrielles américaines au cours de la période 1965-2012 suggère que les effets multiplicateurs des dépenses fédérales sont sensiblement plus élevées quand la politique monétaire est accommodante que lorsqu'elle ne l'est pas. Les résultats suggèrent aussi que les dépenses fédérales peuvent stimuler ou non la consommation privée, dépendamment du degré d’accommodation de la politique monétaire. Ce dernier résultat réconcilie ainsi, sur la base d’un cadre unifié des résultats autrement contradictoires à première vue dans la littérature. Ces résultats ont d'importantes implications de politique économique. Ils suggèrent globalement que la politique budgétaire est plus efficace lorsqu'on en a le plus besoin (par exemple, lorsque le taux de chômage est élevé), si elle est soutenue par la politique monétaire. Ils ont également des implications pour la normalisation des conditions monétaires dans les pays avancés: la sortie des politiques monétaires non-conventionnelles conduirait à des multiplicateurs de dépenses fédérales beaucoup plus faibles qu'autrement, même si le niveau de chômage restait élevé. Ceci renforce la nécessité d'une calibration prudente du calendrier de sortie des politiques monétaires non-conventionnelles. Le troisième chapitre examine l'impact des mesures d'expansion et de contraction budgétaire sur la distribution des revenus dans un panel de 18 pays d'Amérique latine au cours de la période 1990-2010, avec un accent sur les deniers 40 pour cent. Il explore alors comment ces mesures fiscales ainsi que leur composition affectent la croissance des revenus des dernier 40 pour cent, la croissance de leur part de revenu ainsi que la croissance économique. Les mesures d'expansion et de contraction budgétaire sont identifiées par des périodes au cours desquels il existe une variation significative du déficit primaire corrigé des variations conjoncturelles en pourcentage du PIB. Les résultats montrent qu'en moyenne l'expansion budgétaire par la hausse des dépenses publiques est plus favorable à la croissance des revenus des moins bien-nantis que celle par la baisse des impôts. Ce résultat est principalement soutenu par la hausse des dépenses gouvernementales de consommation courante, les transferts et subventions. En outre ces mesures d’expansion budgétaire sont favorables à la réduction des inégalités car elles permettent d'améliorer la part des revenus des moins bien-nantis tout en réduisant la part des revenus des mieux-nantis de la distribution des revenus. En outre ces mesures d’expansion budgétaire sont favorables à la réduction des inégalités car elles permettent d'améliorer la part des revenus des moins bien-nantis tout en réduisant la part des revenus des mieux-nantis de la distribution des revenus. Cependant, l'expansion budgétaire pourrait soit n'avoir aucun effet sur la croissance économique ou entraver cette dernière à travers la hausse des dépenses en capital. Les résultats relatifs à la contraction budgétaire sont quelque peu mitigés. Parfois, les mesures de contraction budgétaire sont associées à une baisse de la croissance des revenus des moins bien nantis et à une hausse des inégalités, parfois l'impact de ces mesures est non significatif. Par ailleurs, aucune des mesures n’affecte de manière significative la croissance du PIB. Comme implications de politique économique, les pays avec une certaine marge de manœuvre budgétaire pourraient entamer ou continuer à mettre en œuvre des programmes de "filets de sauvetage"--par exemple les programmes de transfert monétaire conditionnel--permettant aux segments vulnérables de la population de faire face à des chocs négatifs et aussi d'améliorer leur conditions de vie. Avec un potentiel de stimuler l'emploi peu qualifié, une relance budgétaire sage par les dépenses publique courantes pourrait également jouer un rôle important pour la réduction des inégalités. Aussi, pour éviter que les dépenses en capital freinent la croissance économique, les projets d'investissements publics efficients devraient être prioritaires dans le processus d'élaboration des politiques. Ce qui passe par la mise en œuvre des projets d'investissement avec une productivité plus élevée capable de générer la croissance économique nécessaire pour réduire les inégalités.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse cherche à documenter le changement culturel vécu par les Algonquins des lacs Abitibi et Témiscamingue au 19e siècle, à partir d'une démarche ethnohistorique. Le changement culturel autochtone est souvent perçu comme ayant été défavorable et produit sous l'effet de la contrainte. Cette thèse montre que le contexte changeant du 19e siècle a offert des opportunités permettant aux Algonquins d'apporter des solutions nouvelles à d'anciens problèmes pour lesquels il n'existait pas de solution autrefois. Bien que cette période corresponde à l'amorce de la dépossession territoriale des Algonquins, on n'y observe pas, à cette période, de stress environnemental ayant pu induire ces changements. Cette étude se fait sous le concept unificateur du pouvoir. Le pouvoir dans la conception algonquine est une qualité intrinsèque, qui peut fluctuer au cours d'une vie. Il est manifeste par l'habileté d'une personne à faire fléchir le sort en sa faveur et à déjouer l'infortune. Il est également transmissible à l'intérieur de certaines familles. Au début du 19e siècle, certaines personnes étaient réputées détenir beaucoup de pouvoir et leur leadership ne pouvait être remis en question. Ainsi, il existait des chefs héréditaires et des chamanes puissants et parfois craints. J'avance qu'après l'introduction du catholicisme, les Algonquins ont utilisé cette religion pour se prémunir contre un pouvoir perçu comme démesuré. Ils ont également pris l'initiative de mettre en œuvre le mode de scrutin prévu à la Loi sur les Indiens afin de désigner des chefs choisis pour leur compétence et éloigner des personnes craintes ou incompétentes. Ils ont également mis en place des mesures de protection, évitant de concentrer trop de pouvoir entre les mains d'un chef élu. Le siècle a vu émerger une place plus grande pour la bande comme entité sociale algonquine. En effet, les rassemblements estivaux au niveau de la bande se sont amorcés à cette période, d'abord en conséquence de la participation aux brigades de transport des marchandises, puis à la tenue estivale des missions catholiques. À la fin du siècle, les chefs se sont vus attribuer un pouvoir de représentation politique très grand et ont joué un rôle social grandissant au niveau de la bande.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La question posée dans ce mémoire de recherche concerne l’artiste contemporain japonais Aida Makoto, comme figure provocante et ironique, remettant en question les appareils de répression et d’aliénation de la société capitaliste japonaise. L’objectif de ma réflexion est de montrer l’apport de la schizo-analyse dans l’analyse d’œuvres plastiques comportant des prédispositions à l’utilisation de celle-ci. À travers les œuvres de l’artiste Aida Makoto où une multiplicité de corps emplit l’espace de la toile, et à partir des concepts de multiplicité et de sensation théorisés par Gilles Deleuze et Félix Guattari, la recherche apportera une seconde lecture aux œuvres de cet artiste en mettant en avant les aspects révolutionnaires de sa création artistique. Constitué de deux chapitres, le mémoire porte dans un premier temps sur la picturalité de l’œuvre, d’ordre technique, esthétique et éthique, en mettant en avant les composés de sensation présents sur la toile, ceci afin, dans un second temps, d’appréhender la figuration, de la visagéité à la multiplicité, comme aspect central de l’œuvre. Ainsi, la Figure, au sens deleuzien du terme, permettrait à l’artiste Aida Makoto d’entamer une fuite schizophrénique à l’occasion de laquelle il pourra créer à l’abri de toute répression ou normalisation de ses machines désirantes par la société capitaliste japonaise.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse décrit deux thèmes principaux: 1) la conception, la synthèse, et l'évaluation biophysique des nucléosides tricycliques, et 2) la synthèse de nagilactone B, un produit naturel norditerpenoïde dilactone de la famille de produits naturels “podolactone”. Le premier chapitre décrit la stratégie de design rationnel des nucléosides nommé “restriction conformationnelle double” basée sur les études de modélisation structurales des duplex ADN–ARN modifiés. Cette stratégie implique un blocage du cycle furanose dans une configuration de type N- ou S, et une restriction de la rotation torsionelle autour de l’angle γ. La première contrainte a été incorporée avec un pont méthylène entre l’oxygène en position 2′ et le carbone 4′ du nucléoside. Cette stratégie a été inspirée par les acides nucléiques bloqués (ou “locked nucleic acid”, LNA). La deuxième contrainte a été réalisée en ajoutant un carbocycle supplémentaire dans l'échafaud de l’acide nucléique bloqué. Les défis synthétiques de la formation des nucléotides modifiés à partir des carbohydrates sont décrits ainsi que les améliorations aux stabilités thermiques qu’ils apportent aux duplex oligonucléïques dont ils font partie. Chapitres deux et trois décrivent le développement de deux voies synthétiques complémentaires pour la formation du noyau de nagilactone B. Ce produit naturel a des implications pour le syndrome de Hutchinson–Gilford, à cause de son habilité de jouer le rôle de modulateur de l’épissage d’ARN pré-messager de lamine A. Ce produit naturel contient sept stereocentres différents, dont deux quaternaires et deux comprenant un syn-1,2-diol, ainsi que des lactones à cinq ou six membres, où le cycle à six ressemble à un groupement α-pyrone. La synthèse a débuté avec la cétone de Wieland-Miescher qui a permis d’adresser les défis structurels ainsi qu’explorer les fonctionnalisations des cycles A, B et D du noyau de nagilactone B.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans cette thèse, l’impact du polymorphisme rs3846662 sur l’épissage alternatif de la 3-hydroxy-3-méthylglutaryl coenzyme A réductase (HMGCR) a été investigué in vivo, chez des patients atteints d’hypercholestérolémie familiale (HF) ou de maladie d’Alzheimer (MA). Le premier manuscrit adresse la problématique de la normalisation de la quantification relative des ARNm par PCR quantitative. Les découvertes présentées dans ce manuscrit nous ont permis de déterminer avec un haut niveau de confiance les gènes de référence à utiliser pour la quantification relative des niveaux d’ARNm de l’HMGCR dans des échantillons de sang (troisième manuscrit) et de tissus cérébraux post-mortem (quatrième manuscrit). Dans le deuxième manuscrit, nous démontrons grâce à l’emploi de trois cohortes de patients distinctes, soit la population canadienne française du Québec et les deux populations nord américaines « Alzheimer’s Disease Cooperative Study (ADCS) » et « Alzheimer’s Disease Neuroimaging Initiative (ADNI) », que le génotype AA au locus rs3846662 confère à ces porteurs une protection considérable contre la MA. Les femmes porteuses de ce génotype voient leur risque de MA diminuer de près de 50% et l’âge d’apparition de leurs premiers symptômes retarder de 3.6 ans. Les porteurs de l’allèle à risque APOE4 voient pour leur part leurs niveaux de plaques séniles et dégénérescences neurofibrillaires diminuer significativement en présence du génotype AA. Enfin, les individus atteints de déficit cognitif léger et porteurs à la fois de l’allèle APOE4 et du génotype protecteur AA voient leur risque de convertir vers la MA chuter de 76 à 27%. Dans le troisième manuscrit, nous constatons que les individus atteints d’HF et porteurs du génotype AA ont, contrairement au modèle établi chez les gens normaux, des niveaux plus élevés de cholestérol total et de LDL-C avant traitement comparativement aux porteurs de l’allèle G. Le fait que cette association n’est observée que chez les non porteurs de l’APOE4 et que les femmes porteuses du génotype AA présentent à la fois une augmentation des niveaux d’ARNm totaux et une résistance aux traitements par statines, nous indique que ce génotype influencerait non seulement l’épissage alternatif, mais également la transcription de l’HMGCR. Comme une revue exhaustive de la littérature ne révèle aucune étude abondant dans ce sens, nos résultats suggèrent l’existence de joueurs encore inconnus qui viennent influencer la relation entre le génotype AA, l’épissage alternatif et les niveaux d’ARNm de l’HMGCR. Dans le quatrième manuscrit, l’absence d’associations entre le génotype AA et les niveaux d’ARNm Δ13 ou de protéines HMGCR nous suggère fortement que ce polymorphisme est non fonctionnel dans le SNC affecté par la MA. Une étude approfondie de la littérature nous a permis d’étayer cette hypothèse puisque les niveaux de HNRNPA1, la ribonucléoprotéine influencée par l’allèle au locus rs3846662, sont considérablement réduits dans la MA et le vieillissement. Il est donc proposé que les effets protecteurs contre la MA associés au génotype AA soient le résultat d’une action indirecte sur le processus physiopathologique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The thesis deals with the synthesis, characterization and catalytic activity studies of supported cobalt(ii), nickel(II) and copper(II) complexes of O-phenylenediamine and Schiff bases derived from 3-hydroxyquinoxaline -2-carboxaldehyde. Zeolite encapsulation and polymer anchoring was employed for supporting the complexes. The characterization techniques proved that the encapsulation as well as polymer supporting has been successfully achieved. The catalytic activity studies revealed that the activities of the simple complexes are improved upon encapsulation. Various characterization techniques are used such as, chemical analysis, EPR, magnetic measurements, FTIR studies, thermal analysis, electronic spectra, XRD, SEM, surface area, and GC.The present study indicated that the that the mechanism of oxidation of catechol and DTBC by hydrogen peroxide is not altered by the change in the coordination sphere around the metal ion due to encapsulation. This fact suggests outer sphere mechanism for the reactions. The catalytic activity by zeolite encapsulated complex was found to be slower than that by the neat complex. The slowing down of the reaction in the zeolite case is probably due to the constraint imposed by the zeolite framework. The rate of DTBC ( 3,5-di-tert-butylchatechol)oxidation was found to be greater than the rate of catechol oxidation. This is obviously due to the presence of electron donating tertiary butyl groups.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Aquaculture is one of the prime catalysts for the socio-economic development of Indian economy contributing to the nations food and nutritional security, export earnings, income and employment generation. In this study an evaluation of extension activities in the development of aquaculture in Kerala. This study was conducted with a view to examine how the Kerala fisheries department offered extension services to the aquaculture farmers in the freshwater and brackish water sectors of the state through various agencies like Fish Farmers Development Agency(FFDA), Brackish water Fish Farmers Development Agency (BFFDA). In this study there are 3 category of respondent’s fresh water beneficiary farmers, brackish water beneficiary farmers and fisheries extension officers. The main motive of the thesis is to make an attempt to explore the responses of local producers to the extension programs of the state with special reference to the aquaculture sector of Kerala, India. The most important technical constraint faced by the fresh water farmers was lack of knowledge followed by non-availability of quality seeds. In the case of brackish water farming, it was infection of disease followed by lack of knowledge. The overall activities of the department of fisheries were ‘fairly good’. It indicate the need for improvements in the delivery of extension services to various target groups. The state fisheries department has already moving towards evolving these modes of extension activities by community participation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The purpose of the present study is to understand the surface deformation associated with the Killari and Wadakkancheri earthquake and to examine if there are any evidence of occurrence of paleo-earthquakes in this region or its vicinity. The present study is an attempt to characterize active tectonic structures from two areas within penisular India: the sites of 1993 Killari (Latur) (Mb 6.3) and 1994 Wadakkancheri (M 4.3) earthquakes in the Precambrian shield. The main objectives of the study are to isolate structures related to active tectonism, constraint the style of near – surface deformation and identify previous events by interpreting the deformational features. The study indicates the existence of a NW-SE trending pre-existing fault, passing through the epicentral area of the 1993 Killari earthquake. It presents the salient features obtained during the field investigations in and around the rupture zone. Details of mapping of the scrap, trenching, and shallow drilling are discussed here. It presents the geologic and tectonic settings of the Wadakkancheri area and the local seismicity; interpretation of remote sensing data and a detailed geomorphic analysis. Quantitative geomorphic analysis around the epicenter of the Wadakkancheri earthquake indicates suitable neotectonic rejuvenation. Evaluation of remote sensing data shows distinct linear features including the presence of potentially active WNW-ESE trending fault within the Precambrian shear zone. The study concludes that the earthquakes in the shield area are mostly associated with discrete faults that are developed in association with the preexisting shear zones or structurally weak zones

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Design of a compact microstrip-fed ultra-wideband antenna suitable for USB dongle and other such space constraint applications is presented. The structure consists of a pentagonal monopole element and a modified ground plane that gives an impedance bandwidth from 2.8 to 12 GHz. Radiation patterns are stable and omni-directional throughout the band with an average gain of 2.84 dBi. The antenna occupies only 11 × 30 mm2 on FR4 substrate with permittivity 4.4.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The proliferation of wireless sensor networks in a large spectrum of applications had been spurered by the rapid advances in MEMS(micro-electro mechanical systems )based sensor technology coupled with low power,Low cost digital signal processors and radio frequency circuits.A sensor network is composed of thousands of low cost and portable devices bearing large sensing computing and wireless communication capabilities. This large collection of tiny sensors can form a robust data computing and communication distributed system for automated information gathering and distributed sensing.The main attractive feature is that such a sensor network can be deployed in remote areas.Since the sensor node is battery powered,all the sensor nodes should collaborate together to form a fault tolerant network so as toprovide an efficient utilization of precious network resources like wireless channel,memory and battery capacity.The most crucial constraint is the energy consumption which has become the prime challenge for the design of long lived sensor nodes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Computational Biology is the research are that contributes to the analysis of biological data through the development of algorithms which will address significant research problems.The data from molecular biology includes DNA,RNA ,Protein and Gene expression data.Gene Expression Data provides the expression level of genes under different conditions.Gene expression is the process of transcribing the DNA sequence of a gene into mRNA sequences which in turn are later translated into proteins.The number of copies of mRNA produced is called the expression level of a gene.Gene expression data is organized in the form of a matrix. Rows in the matrix represent genes and columns in the matrix represent experimental conditions.Experimental conditions can be different tissue types or time points.Entries in the gene expression matrix are real values.Through the analysis of gene expression data it is possible to determine the behavioral patterns of genes such as similarity of their behavior,nature of their interaction,their respective contribution to the same pathways and so on. Similar expression patterns are exhibited by the genes participating in the same biological process.These patterns have immense relevance and application in bioinformatics and clinical research.Theses patterns are used in the medical domain for aid in more accurate diagnosis,prognosis,treatment planning.drug discovery and protein network analysis.To identify various patterns from gene expression data,data mining techniques are essential.Clustering is an important data mining technique for the analysis of gene expression data.To overcome the problems associated with clustering,biclustering is introduced.Biclustering refers to simultaneous clustering of both rows and columns of a data matrix. Clustering is a global whereas biclustering is a local model.Discovering local expression patterns is essential for identfying many genetic pathways that are not apparent otherwise.It is therefore necessary to move beyond the clustering paradigm towards developing approaches which are capable of discovering local patterns in gene expression data.A biclusters is a submatrix of the gene expression data matrix.The rows and columns in the submatrix need not be contiguous as in the gene expression data matrix.Biclusters are not disjoint.Computation of biclusters is costly because one will have to consider all the combinations of columans and rows in order to find out all the biclusters.The search space for the biclustering problem is 2 m+n where m and n are the number of genes and conditions respectively.Usually m+n is more than 3000.The biclustering problem is NP-hard.Biclustering is a powerful analytical tool for the biologist.The research reported in this thesis addresses the problem of biclustering.Ten algorithms are developed for the identification of coherent biclusters from gene expression data.All these algorithms are making use of a measure called mean squared residue to search for biclusters.The objective here is to identify the biclusters of maximum size with the mean squared residue lower than a given threshold. All these algorithms begin the search from tightly coregulated submatrices called the seeds.These seeds are generated by K-Means clustering algorithm.The algorithms developed can be classified as constraint based,greedy and metaheuristic.Constarint based algorithms uses one or more of the various constaints namely the MSR threshold and the MSR difference threshold.The greedy approach makes a locally optimal choice at each stage with the objective of finding the global optimum.In metaheuristic approaches particle Swarm Optimization(PSO) and variants of Greedy Randomized Adaptive Search Procedure(GRASP) are used for the identification of biclusters.These algorithms are implemented on the Yeast and Lymphoma datasets.Biologically relevant and statistically significant biclusters are identified by all these algorithms which are validated by Gene Ontology database.All these algorithms are compared with some other biclustering algorithms.Algorithms developed in this work overcome some of the problems associated with the already existing algorithms.With the help of some of the algorithms which are developed in this work biclusters with very high row variance,which is higher than the row variance of any other algorithm using mean squared residue, are identified from both Yeast and Lymphoma data sets.Such biclusters which make significant change in the expression level are highly relevant biologically.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Aquaculture has developed to become one of the fastest growing food producing sectors in the world.Today India is one among the major shrimp producing countries in the world.There are extensive and intensive shrimp culture practices. In extensive shrimp culture, shrimps are stocked at low densities (< 25 PLs m'2)in large ponds or tidal enclosures in which little or no management is exercised or possible. Farmers depend almost entirely on natural conditions in extensive cultures. Intensive shrimp culture is carried out in high densities (>200 PLs m'2). Much of the world shrimp production still comes from extensive culture.There is a growing demand for fish and marine products for human and animal consumption. This demand has led to rapid growth of aquaculture, which some times has been accompanied by ecological impacts and economic loss due to diseases. The expansion of shrimp culture always accompanies local environmental degradation and occurrence of diseases.Disease out breaks is recognised as a significant constraint to aquaculture production. Environmental factors, water quality, pollution due to effluent discharge and pathogenic invasion due to vertical and horizontal transmission are the main causes of shrimp disease out breaks. Nutritional imbalance, toxicant and other pollutants also account for the onset of diseases. pathogens include viruses, bacteria, fungi and parasites.Viruses are the most economically significant pathogens of the cultured shrimps world wide. Disease control in shrimp aquaculture should focus first on preventive measures for eliminating disease promoting factors.ln order to design prophylactic and proactive measures against shrimp diseases, it is mandatory to understand the immune make up of the cultivable species, its optimum culture conditions and the physico chemical parameters of the rearing environment. It has been proven beyond doubt that disease is an end result of complex interaction of environment, pathogen and the host animal. The aquatic environment is abounded with infectious microbes.The transmission of disease in this environment is extremely easy, especially under dense, culture conditions. Therefore, a better understanding of the immune responses of the cultured animal in relation to its environmental alterations and microbial invasions is essential indevising strategic measures against aquaculture loss due to diseases. This study accentuate the importance of proper and regular health monitoring in shrimps employing the most appropriate haematological biomarkers for application of suitable prophylactic measures in order to avoid serious health hazards in shrimp culture systems.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In India scientific commercial farming of Macrobrachium is yet to get a start, the major constraint being the lack of seed. Seed collection from the natural sources alone may not be sufficient, and in such cases seed production in hatcheries is inevitable. This necessitates knowledge of the reproductive biology of the species technology development for brood stock and larval rearing, and the optimum conditions required for larval development to undertake large scale seed production.The present study was taken up with the major objectives of developing a proper, simple and feasible technology for the larval rearing of Macrobrachium, with special emphasis on. mass larval rearing suitable for commercial level operations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Laser-induced damage is the principal limiting constraint in the design and operation of high-power laser systems used in fusion and other high-energy laser applications. Therefore, an understanding of the mechanisms which cause the radiation damage to the components employed in building a laser and a knowledge of the damage threshold of these materials are of great importance in designing a laser system and to operate it without appreciable degradation in performance. This thesis, even though covers three distinct problems for investigations using a dye Q-switched multimode Nd:glass laser operating at 1062 nm and emitting 25 ns (FWHM) pulses, lays its main thrust on damage threshold studies on thin films. Using the same glass laser two-photon excited fluorescence in rhodamine 6G and generation and characterisation of a carbon plasma have also been carried out. The thesis is presented in seven chapters.