931 resultados para Two-Level Optimization
Resumo:
Les systèmes Matériels/Logiciels deviennent indispensables dans tous les aspects de la vie quotidienne. La présence croissante de ces systèmes dans les différents produits et services incite à trouver des méthodes pour les développer efficacement. Mais une conception efficace de ces systèmes est limitée par plusieurs facteurs, certains d'entre eux sont: la complexité croissante des applications, une augmentation de la densité d'intégration, la nature hétérogène des produits et services, la diminution de temps d’accès au marché. Une modélisation transactionnelle (TLM) est considérée comme un paradigme prometteur permettant de gérer la complexité de conception et fournissant des moyens d’exploration et de validation d'alternatives de conception à des niveaux d’abstraction élevés. Cette recherche propose une méthodologie d’expression de temps dans TLM basée sur une analyse de contraintes temporelles. Nous proposons d'utiliser une combinaison de deux paradigmes de développement pour accélérer la conception: le TLM d'une part et une méthodologie d’expression de temps entre différentes transactions d’autre part. Cette synergie nous permet de combiner dans un seul environnement des méthodes de simulation performantes et des méthodes analytiques formelles. Nous avons proposé un nouvel algorithme de vérification temporelle basé sur la procédure de linéarisation des contraintes de type min/max et une technique d'optimisation afin d'améliorer l'efficacité de l'algorithme. Nous avons complété la description mathématique de tous les types de contraintes présentées dans la littérature. Nous avons développé des méthodes d'exploration et raffinement de système de communication qui nous a permis d'utiliser les algorithmes de vérification temporelle à différents niveaux TLM. Comme il existe plusieurs définitions du TLM, dans le cadre de notre recherche, nous avons défini une méthodologie de spécification et simulation pour des systèmes Matériel/Logiciel basée sur le paradigme de TLM. Dans cette méthodologie plusieurs concepts de modélisation peuvent être considérés séparément. Basée sur l'utilisation des technologies modernes de génie logiciel telles que XML, XSLT, XSD, la programmation orientée objet et plusieurs autres fournies par l’environnement .Net, la méthodologie proposée présente une approche qui rend possible une réutilisation des modèles intermédiaires afin de faire face à la contrainte de temps d’accès au marché. Elle fournit une approche générale dans la modélisation du système qui sépare les différents aspects de conception tels que des modèles de calculs utilisés pour décrire le système à des niveaux d’abstraction multiples. En conséquence, dans le modèle du système nous pouvons clairement identifier la fonctionnalité du système sans les détails reliés aux plateformes de développement et ceci mènera à améliorer la "portabilité" du modèle d'application.
Resumo:
Résumé La prédominance de l'obésité qui touche les enfants et les adultes a augmenté dans le monde entier ces dernières décennies. Les différentes études épidémiologiques ont prouvé que l'obésité est devenue une préoccupation profonde de santé aux États-Unis et au Canada. Il a été montré que l'obésité a beaucoup d’effets sur la santé ainsi il serait important de trouver différentes causes pour le gain de poids. Il est clair que l'obésité soit la condition de multiples facteurs et implique des éléments génétiques et environnementaux. Nous nous concentrons sur les facteurs diététiques et particulièrement le fructose où sa consommation a parallèlement augmenté avec l'augmentation du taux d'obésité. La forme principale du fructose est le sirop de maïs à haute teneur en fructose (HFCS) qui est employé en tant qu'édulcorant primordial dans la plupart des boissons et nourritures en Amérique du Nord. Il a été suggéré que la prise du fructose serait probablement un facteur qui contribue à l’augmentation de la prédominance de l'obésité. L'objectif de cette étude était d'évaluer s'il y a un rapport entre la consommation du fructose et le risque d'obésité. Nous avons travaillé sur deux bases de données des nations Cree et Inuit. Nous avons eu un groupe de 522 adultes Cree, (263 femmes et 259 hommes) dans deux groupes d'âge : les personnes entre 20 et 40 ans, et les personnes de 40 à 60 ans. Nous les avons classés par catégorie en quatre groupes d'indice de masse corporelle (IMC). L'outil de collecte de données était un rappel de 24 heures. En revanche, pour la base de données d'Inuit nous avons eu 550 adultes (301 femmes et 249 hommes) dans deux groupes d'âge semblables à ceux du Cree et avec 3 catégories d’indice de masse corporelle. Les données dans la base d'Inuit ont été recueillies au moyen de deux rappels de 24 heures. Nous avons extrait la quantité de fructose par 100 grammes de nourriture consommés par ces deux populations et nous avons créé des données de composition en nourriture pour les deux. Nous avons pu également déterminer les sources principales du fructose pour ces populations. Aucun rapport entre la consommation du fructose et l’augmentation de l’indice de masse corporelle parmi les adultes de Cree et d'Inuit n’a été détecté. Nous avons considéré l’apport énergétique comme facteur confondant potentiel et après ajustement, nous avons constaté que l'indice de masse corporelle a été associé à l’apport énergétique total et non pas à la consommation du fructose. Puisque dans les études qui ont trouvé une association entre la consommation de fructose et l’obésité, le niveau de la consommation de fructose était supérieure à 50 grammes par jour et comme dans cette étude ce niveau était inférieur à cette limite (entre 20.6 et 45.4 g/jour), nous proposons que des effets negatifs du fructose sur la masse corporelle pourraient être testés dans des populations à plus haute consommation. Les essais cliniques randomisés et éventuelles études cohortes avec différents niveaux de consommation de fructose suivis à long terme pourraient aussi être utiles. Mots clés : fructose, sirop de maïs à haute teneur en fructose (HFCS), obésité et poids excessif
Resumo:
Les réseaux optiques à commutation de rafales (OBS) sont des candidats pour jouer un rôle important dans le cadre des réseaux optiques de nouvelle génération. Dans cette thèse, nous nous intéressons au routage adaptatif et au provisionnement de la qualité de service dans ce type de réseaux. Dans une première partie de la thèse, nous nous intéressons à la capacité du routage multi-chemins et du routage alternatif (par déflection) à améliorer les performances des réseaux OBS, pro-activement pour le premier et ré-activement pour le second. Dans ce contexte, nous proposons une approche basée sur l’apprentissage par renforcement où des agents placés dans tous les nœuds du réseau coopèrent pour apprendre, continuellement, les chemins du routage et les chemins alternatifs optimaux selon l’état actuel du réseau. Les résultats numériques montrent que cette approche améliore les performances des réseaux OBS comparativement aux solutions proposées dans la littérature. Dans la deuxième partie de cette thèse, nous nous intéressons au provisionnement absolu de la qualité de service où les performances pire-cas des classes de trafic de priorité élevée sont garanties quantitativement. Plus spécifiquement, notre objectif est de garantir la transmission sans pertes des rafales de priorité élevée à l’intérieur du réseau OBS tout en préservant le multiplexage statistique et l’utilisation efficace des ressources qui caractérisent les réseaux OBS. Aussi, nous considérons l’amélioration des performances du trafic best effort. Ainsi, nous proposons deux approches : une approche basée sur les nœuds et une approche basée sur les chemins. Dans l’approche basée sur les nœuds, un ensemble de longueurs d’onde est assigné à chaque nœud du bord du réseau OBS pour qu’il puisse envoyer son trafic garanti. Cette assignation prend en considération les distances physiques entre les nœuds du bord. En outre, nous proposons un algorithme de sélection des longueurs d’onde pour améliorer les performances des rafales best effort. Dans l’approche basée sur les chemins, le provisionnement absolu de la qualité de service est fourni au niveau des chemins entre les nœuds du bord du réseau OBS. À cette fin, nous proposons une approche de routage et d’assignation des longueurs d’onde qui a pour but la réduction du nombre requis de longueurs d’onde pour établir des chemins sans contentions. Néanmoins, si cet objectif ne peut pas être atteint à cause du nombre limité de longueurs d’onde, nous proposons de synchroniser les chemins en conflit sans le besoin pour des équipements additionnels. Là aussi, nous proposons un algorithme de sélection des longueurs d’onde pour les rafales best effort. Les résultats numériques montrent que l’approche basée sur les nœuds et l’approche basée sur les chemins fournissent le provisionnement absolu de la qualité de service pour le trafic garanti et améliorent les performances du trafic best effort. En outre, quand le nombre de longueurs d’ondes est suffisant, l’approche basée sur les chemins peut accommoder plus de trafic garanti et améliorer les performances du trafic best effort par rapport à l’approche basée sur les nœuds.
Resumo:
La transformation de modèles consiste à transformer un modèle source en un modèle cible conformément à des méta-modèles source et cible. Nous distinguons deux types de transformations. La première est exogène où les méta-modèles source et cible représentent des formalismes différents et où tous les éléments du modèle source sont transformés. Quand elle concerne un même formalisme, la transformation est endogène. Ce type de transformation nécessite généralement deux étapes : l’identification des éléments du modèle source à transformer, puis la transformation de ces éléments. Dans le cadre de cette thèse, nous proposons trois principales contributions liées à ces problèmes de transformation. La première contribution est l’automatisation des transformations des modèles. Nous proposons de considérer le problème de transformation comme un problème d'optimisation combinatoire où un modèle cible peut être automatiquement généré à partir d'un nombre réduit d'exemples de transformations. Cette première contribution peut être appliquée aux transformations exogènes ou endogènes (après la détection des éléments à transformer). La deuxième contribution est liée à la transformation endogène où les éléments à transformer du modèle source doivent être détectés. Nous proposons une approche pour la détection des défauts de conception comme étape préalable au refactoring. Cette approche est inspirée du principe de la détection des virus par le système immunitaire humain, appelée sélection négative. L’idée consiste à utiliser de bonnes pratiques d’implémentation pour détecter les parties du code à risque. La troisième contribution vise à tester un mécanisme de transformation en utilisant une fonction oracle pour détecter les erreurs. Nous avons adapté le mécanisme de sélection négative qui consiste à considérer comme une erreur toute déviation entre les traces de transformation à évaluer et une base d’exemples contenant des traces de transformation de bonne qualité. La fonction oracle calcule cette dissimilarité et les erreurs sont ordonnées selon ce score. Les différentes contributions ont été évaluées sur d’importants projets et les résultats obtenus montrent leurs efficacités.
Resumo:
De nombreux problèmes pratiques qui se posent dans dans le domaine de la logistique, peuvent être modélisés comme des problèmes de tournées de véhicules. De façon générale, cette famille de problèmes implique la conception de routes, débutant et se terminant à un dépôt, qui sont utilisées pour distribuer des biens à un nombre de clients géographiquement dispersé dans un contexte où les coûts associés aux routes sont minimisés. Selon le type de problème, un ou plusieurs dépôts peuvent-être présents. Les problèmes de tournées de véhicules sont parmi les problèmes combinatoires les plus difficiles à résoudre. Dans cette thèse, nous étudions un problème d’optimisation combinatoire, appartenant aux classes des problèmes de tournées de véhicules, qui est liée au contexte des réseaux de transport. Nous introduisons un nouveau problème qui est principalement inspiré des activités de collecte de lait des fermes de production, et de la redistribution du produit collecté aux usines de transformation, pour la province de Québec. Deux variantes de ce problème sont considérées. La première, vise la conception d’un plan tactique de routage pour le problème de la collecte-redistribution de lait sur un horizon donné, en supposant que le niveau de la production au cours de l’horizon est fixé. La deuxième variante, vise à fournir un plan plus précis en tenant compte de la variation potentielle de niveau de production pouvant survenir au cours de l’horizon considéré. Dans la première partie de cette thèse, nous décrivons un algorithme exact pour la première variante du problème qui se caractérise par la présence de fenêtres de temps, plusieurs dépôts, et une flotte hétérogène de véhicules, et dont l’objectif est de minimiser le coût de routage. À cette fin, le problème est modélisé comme un problème multi-attributs de tournées de véhicules. L’algorithme exact est basé sur la génération de colonnes impliquant un algorithme de plus court chemin élémentaire avec contraintes de ressources. Dans la deuxième partie, nous concevons un algorithme exact pour résoudre la deuxième variante du problème. À cette fin, le problème est modélisé comme un problème de tournées de véhicules multi-périodes prenant en compte explicitement les variations potentielles du niveau de production sur un horizon donné. De nouvelles stratégies sont proposées pour résoudre le problème de plus court chemin élémentaire avec contraintes de ressources, impliquant dans ce cas une structure particulière étant donné la caractéristique multi-périodes du problème général. Pour résoudre des instances de taille réaliste dans des temps de calcul raisonnables, une approche de résolution de nature heuristique est requise. La troisième partie propose un algorithme de recherche adaptative à grands voisinages où de nombreuses nouvelles stratégies d’exploration et d’exploitation sont proposées pour améliorer la performances de l’algorithme proposé en termes de la qualité de la solution obtenue et du temps de calcul nécessaire.
Resumo:
Les centres d’appels sont des éléments clés de presque n’importe quelle grande organisation. Le problème de gestion du travail a reçu beaucoup d’attention dans la littérature. Une formulation typique se base sur des mesures de performance sur un horizon infini, et le problème d’affectation d’agents est habituellement résolu en combinant des méthodes d’optimisation et de simulation. Dans cette thèse, nous considérons un problème d’affection d’agents pour des centres d’appels soumis a des contraintes en probabilité. Nous introduisons une formulation qui exige que les contraintes de qualité de service (QoS) soient satisfaites avec une forte probabilité, et définissons une approximation de ce problème par moyenne échantillonnale dans un cadre de compétences multiples. Nous établissons la convergence de la solution du problème approximatif vers celle du problème initial quand la taille de l’échantillon croit. Pour le cas particulier où tous les agents ont toutes les compétences (un seul groupe d’agents), nous concevons trois méthodes d’optimisation basées sur la simulation pour le problème de moyenne échantillonnale. Étant donné un niveau initial de personnel, nous augmentons le nombre d’agents pour les périodes où les contraintes sont violées, et nous diminuons le nombre d’agents pour les périodes telles que les contraintes soient toujours satisfaites après cette réduction. Des expériences numériques sont menées sur plusieurs modèles de centre d’appels à faible occupation, au cours desquelles les algorithmes donnent de bonnes solutions, i.e. la plupart des contraintes en probabilité sont satisfaites, et nous ne pouvons pas réduire le personnel dans une période donnée sont introduire de violation de contraintes. Un avantage de ces algorithmes, par rapport à d’autres méthodes, est la facilité d’implémentation.
Resumo:
Il est relativement bien établi que les crises focales entraînent une augmentation régionale du flot sanguin dans le but de soutenir la demande énergétique en hémoglobine oxygénée des neurones épileptiques. Des changements hémodynamiques précoces ont également été rapportés dans la région homologue controlatérale, bien que ceci ait été moins bien caractérisé. Dans cette étude, notre objectif est de mieux caractériser, lors de crises focales, la nature des changements hémodynamiques précoces dans la région homologue controlatérale au foyer épileptique. L'imagerie optique intrinsèque (IOI) et la microscopie deux-photons sont utilisées pour étudier les changements hémodynamiques dans la région homologue controlatérale au site de crises focales induites par l’injection de 4-aminopyridine (4-AP) dans le cortex somatosensitif ipsilatéral de souris. Dans l'étude d'IOI, des changements de l’oxyhémoglobine (HbO), de la désoxyhémoglobine (HbR) et du débit sanguin cérébral ont été observées dans la région homologue controlatérale au site de crises focales lors de toutes les crises. Toutefois, ces changements étaient hétérogènes, sans patron cohérent et reproduisible. Nos expériences avec la microscopie deux-photons n’ont pas révélé de changements hémodynamiques significatifs dans la région homotopique controlatérale lors de trains de pointes épileptiques. Nos résultats doivent être interprétés avec prudence compte tenu de plusieurs limitations: d’une part absence de mesures électrophysiologiques dans la région d’intérêt controlatérale au foyer simultanément à l’imagerie deux-photons et à l'IOI; d’autre part, lors des expériences avec le deux-photons, incapacité à générer de longues décharges ictales mais plutôt des trains de pointes, couverture spatiale limitée de la région d’intérêt controlatérale, et faible puissance suite au décès prématuré de plusieurs souris pour diverses raisons techniques. Nous terminons en discutant de divers moyens pour améliorer les expériences futures.
Resumo:
European Union Series
Resumo:
The main objective of the of present study are to study the intraseasonal variability of LLJ and its relation with convective heating of the atmosphere, to establish whether LLJ splits into two branches over the Arabian sea as widely believed, the role of horizonatal wind shear of LLJ in the episodes of intense rainfall events observed over the west coast of India, to perform atmospheric modeling work to test whether small (meso) scale vortices form during intense rainfall events along the west coast; and to study the relation between LLJ and monsoon depression genesis. The results of a study on the evolution of Low Level Jetstream (LLJ) prior to the formation of monsoon depressions are presented. A synoptic model of the temporal evolution of monsoon depression has been produced. There is a systematic temporal evolution of the field of deep convection strength and position of the LLJ axis leading to the genesis of monsoon depression. One of the significant outcomes of the present thesis is that the LLJ plays an important role in the intraseasonal and the interannual variability of Indian monsoon activity. Convection and rainfall are dependent mainly on the cyclonic vorticity in the boundary layer associated with LLJ. Monsoon depression genesis and the episodes of very heavy rainfall along the west coast of India are closely related to the cyclonic shear of the LLJ in the boundary layer and the associated deep convection. Case studies by a mesoscale numerical model (MM5) have shown that the heavy rainfall episodes along the west coast of India are associated with generation of mesoscale cyclonic vortices in the boundary layer.
Resumo:
In the present investigation, an attempt is made to document various episodes of transgression and regression during the late Quaternary period from the study of coastal and shelf sequences extending from the inland across the beach to the shelf domain. Shore parallel beach ridges with alternating swales and occurrence of strand line deposits on the shelf make the northern Kerala coast an ideal natural laboratory for documenting the morpho-dynamic response of the coast to the changing sea level. The objectives of the study are lithographic reconstruction of environments of deposition from the coastal plain and shelf sequences; documentation of episodes of transgression and regression by studying different coastal plain sequences and shelf deposits and evolve a comprehensive picture of late Quaternary coastal evolution and sea level changes along the northern Kerala coast by collating morphological, lithological and geochronological evidences from the coastal plain and shelf sequences. The present study is confined to two shore-normal east-west trending transects, Viz. Punjavi and Onakkunnu, in the northern Kerala coast.
Resumo:
The main source of protein for human and animal consumption is from the agricultural sector, where the production is vulnerable to diseases, fluctuations in climatic conditions and deteriorating hydrological conditions due to water pollution. Therefore Single Cell Protein (SCP) production has evolved as an excellent alternative. Among all sources of microbial protein, yeast has attained global acceptability and has been preferred for SCP production. The screening and evaluation of nutritional and other culture variables of microorganisms are very important in the development of a bioprocess for SCP production. The application of statistical experimental design in bioprocess development can result in improved product yields, reduced process variability, closer confirmation of the output response to target requirements and reduced development time and overall cost.The present work was undertaken to develop a bioprocess technology for the mass production of a marine yeast, Candida sp.S27. Yeasts isolated from the offshore waters of the South west coast of India and maintained in the Microbiology Laboratory were subjected to various tests for the selection of a potent strain for biomass production. The selected marine yeast was identified based on ITS sequencing. Biochemical/nutritional characterization of Candida sp.S27 was carried out. Using Response Surface Methodology (RSM) the process parameters (pH, temperature and salinity) were optimized. For mass production of yeast biomass, a chemically defined medium (Barnett and Ingram, 1955) and a crude medium (Molasses-Yeast extract) were optimized using RSM. Scale up of biomass production was done in a Bench top Fermenter using these two optimized media. Comparative efficacy of the defined and crude media were estimated besides nutritional evaluation of the biomass developed using these two optimized media.
Resumo:
Absorption spectra of formaldehyde molecule in the gas phase have been recorded using photoacoustic (PA) technique with pulsed dye laser at various power levels. The spectral profiles at higher power levels are found to be different from that obtained at lower laser powers. Two photon absorption (TPA) is found to be responsible for the photoacoustic signal at higher laser power while the absorption at lower laser power level is attributed to one photon absorption (OPA) process. Probable assignments for the different transitions are given in this paper.
Resumo:
Electromagnetic tomography has been applied to problems in nondestructive evolution, ground-penetrating radar, synthetic aperture radar, target identification, electrical well logging, medical imaging etc. The problem of electromagnetic tomography involves the estimation of cross sectional distribution dielectric permittivity, conductivity etc based on measurement of the scattered fields. The inverse scattering problem of electromagnetic imaging is highly non linear and ill posed, and is liable to get trapped in local minima. The iterative solution techniques employed for computing the inverse scattering problem of electromagnetic imaging are highly computation intensive. Thus the solution to electromagnetic imaging problem is beset with convergence and computational issues. The attempt of this thesis is to develop methods suitable for improving the convergence and reduce the total computations for tomographic imaging of two dimensional dielectric cylinders illuminated by TM polarized waves, where the scattering problem is defmed using scalar equations. A multi resolution frequency hopping approach was proposed as opposed to the conventional frequency hopping approach employed to image large inhomogeneous scatterers. The strategy was tested on both synthetic and experimental data and gave results that were better localized and also accelerated the iterative procedure employed for the imaging. A Degree of Symmetry formulation was introduced to locate the scatterer in the investigation domain when the scatterer cross section was circular. The investigation domain could thus be reduced which reduced the degrees of freedom of the inverse scattering process. Thus the entire measured scattered data was available for the optimization of fewer numbers of pixels. This resulted in better and more robust reconstructions of the scatterer cross sectional profile. The Degree of Symmetry formulation could also be applied to the practical problem of limited angle tomography, as in the case of a buried pipeline, where the ill posedness is much larger. The formulation was also tested using experimental data generated from an experimental setup that was designed. The experimental results confirmed the practical applicability of the formulation.
Resumo:
To ensure quality of machined products at minimum machining costs and maximum machining effectiveness, it is very important to select optimum parameters when metal cutting machine tools are employed. Traditionally, the experience of the operator plays a major role in the selection of optimum metal cutting conditions. However, attaining optimum values each time by even a skilled operator is difficult. The non-linear nature of the machining process has compelled engineers to search for more effective methods to attain optimization. The design objective preceding most engineering design activities is simply to minimize the cost of production or to maximize the production efficiency. The main aim of research work reported here is to build robust optimization algorithms by exploiting ideas that nature has to offer from its backyard and using it to solve real world optimization problems in manufacturing processes.In this thesis, after conducting an exhaustive literature review, several optimization techniques used in various manufacturing processes have been identified. The selection of optimal cutting parameters, like depth of cut, feed and speed is a very important issue for every machining process. Experiments have been designed using Taguchi technique and dry turning of SS420 has been performed on Kirlosker turn master 35 lathe. Analysis using S/N and ANOVA were performed to find the optimum level and percentage of contribution of each parameter. By using S/N analysis the optimum machining parameters from the experimentation is obtained.Optimization algorithms begin with one or more design solutions supplied by the user and then iteratively check new design solutions, relative search spaces in order to achieve the true optimum solution. A mathematical model has been developed using response surface analysis for surface roughness and the model was validated using published results from literature.Methodologies in optimization such as Simulated annealing (SA), Particle Swarm Optimization (PSO), Conventional Genetic Algorithm (CGA) and Improved Genetic Algorithm (IGA) are applied to optimize machining parameters while dry turning of SS420 material. All the above algorithms were tested for their efficiency, robustness and accuracy and observe how they often outperform conventional optimization method applied to difficult real world problems. The SA, PSO, CGA and IGA codes were developed using MATLAB. For each evolutionary algorithmic method, optimum cutting conditions are provided to achieve better surface finish.The computational results using SA clearly demonstrated that the proposed solution procedure is quite capable in solving such complicated problems effectively and efficiently. Particle Swarm Optimization (PSO) is a relatively recent heuristic search method whose mechanics are inspired by the swarming or collaborative behavior of biological populations. From the results it has been observed that PSO provides better results and also more computationally efficient.Based on the results obtained using CGA and IGA for the optimization of machining process, the proposed IGA provides better results than the conventional GA. The improved genetic algorithm incorporating a stochastic crossover technique and an artificial initial population scheme is developed to provide a faster search mechanism. Finally, a comparison among these algorithms were made for the specific example of dry turning of SS 420 material and arriving at optimum machining parameters of feed, cutting speed, depth of cut and tool nose radius for minimum surface roughness as the criterion. To summarize, the research work fills in conspicuous gaps between research prototypes and industry requirements, by simulating evolutionary procedures seen in nature that optimize its own systems.
Resumo:
Distribution and chemistry of major inorganic forms of nutrients along with physico-chemical parameters were investigated. Surface sediments and overlying waters of the Ashtamudi and Vembanad Lakes were taken for the study, which is situated in the southwest coast of India. High concentrations of dissolved nitrogen and phosphorus compounds carried by the river leads to oxygen depletion in the water column. A concurrent increase in the bottom waters along with decrease in dissolved oxygen was noticed. This support to nitrification process operating in the sediment-water interface of the Ashtamudi and Vembanad Lake. Estuarine sediments are clayey sand to silty sand both in Ashtamudi and Vembanad in January and May. Present study indicates that the sediment texture is the major controlling factor in the distribution of these nutrient forms. For water samples nitrite, inorganic phosphate was high in Vembanad in January and May compared to Ashtamudi. For sediments, enhanced level of inorganic phosphate and nitrite was found in Vembanad during January and May. It had been observed that the level of N and P is more in sediments. A comparative assessment of the Ashtamudi and Vembanad Lake reveals that the Vembanad wetland is more deteriorated compared to the Ashtamudi wetland system