961 resultados para Lot-sizing and scheduling


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dans cet article, l’auteur Ejan Mackaay présente les caractéristiques fondamentales du cyberespace et analyse les relations économiques et juridiques entre les acteurs du marché virtuel de l’Internet. Cette analyse s'inscrit en marge des travaux de Niva Elkin-Koren et Eli Salzberger, dont elle suit le plan. D'une part, il y est précisé que le marché virtuel de l’Internet remet en question l’analyse classique des interactions entre les acteurs économiques. La nouvelle analyse néo-institutionnel présente un cadre analytique qui relève plus adéquatement les relations complexes entre les acteurs économiques du marché virtuel que les théories économiques classiques. Cette nouvelle approche se fonde sur le concept que les acteurs économiques utilisent les ressources afin d’être intégrés au sein des institutions les plus actives et efficaces. D'autre part, il est fait mention que le cyberespace présente plusieurs caractéristiques d’un marché économique. Toutefois, étant virtuel, le cyberespace ne présente pas les mêmes limites qu’un marché physique. En effet, dans ce dernier, certaines limites physiques imposent diverses règles de comportement. Le législateur doit donc prendre conscience de l’absence de telles limites et des normes qu’elles imposaient afin de légiférer adéquatement sur les échanges dans le cyberespace. Ensuite, afin d’illustrer les divergences entre les marchés physiques et virtuels, une analyse est faite au regard des principaux échecs de marchés, soit l’établissement d’un monopole, l’accès aux biens publics, les informations imparfaites et les externalités négatives. Un monopole est un échec de marché qui restreint considérablement la compétition, peut être accrut par l’effet boule de neige et, s’il n’est pas contrôlé, peut mener à un effet de blocage ou d’exclusion de certains acteurs. Le second échec analysé est l’accès aux biens publics. Dans le cyberespace, le principal bien public est l’information qui peut être échangée entre les utilisateurs. Toutefois, certaines règles de droits d’auteur et de propriété intellectuelle peuvent considérablement limiter l’accès à ce bien. L’information incomplète des acteurs économiques constitue un autre échec de marché, mais le cyberespace offre plusieurs moyens d’accéder à l’information pertinente aux transactions éclairées. Enfin, les externalités négatives peuvent généralement être considérées comme des effets secondaires des échanges commerciaux. Toutefois il est souligné que ces dernières ont un effet très limité dans le cyberespace, étant donné le plus grand nombre d’options de retrait et la facilité accrue de l’exercer. Enfin, il est rappelé que le commerce électronique et le cyberespace remettent en questions toutes les théories économiques et politiques traditionnelles et offrent une perspective nouvelle sur le phénomène de la formation des normes.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La demande croissante en carburants, ainsi que les changements climatiques dus au réchauffement planétaire poussent le monde entier à chercher des sources d’énergie capables de produire des combustibles alternatifs aux combustibles fossiles. Durant les dernières années, plusieurs sources potentielles ont été identifiées, les premières à être considérées sont les plantes oléagineuses comme source de biocarburant, cependant l’utilisation de végétaux ou d’huiles végétales ayant un lien avec l’alimentation humaine peut engendrer une hausse des prix des denrées alimentaires, sans oublier les questions éthiques qui s’imposent. De plus, l'usage des huiles non comestibles comme sources de biocarburants, comme l’huile de jatropha, de graines de tabac ou de jojoba, révèle un problème de manque de terre arable ce qui oblige à réduire les terres cultivables de l'industrie agricole et alimentaire au profit des cultures non comestibles. Dans ce contexte, l'utilisation de microorganismes aquatiques, tels que les microalgues comme substrats pour la production de biocarburant semble être une meilleure solution. Les microalgues sont faciles à cultiver et peuvent croitre avec peu ou pas d'entretien. Elles peuvent ainsi se développer dans des eaux douces, saumâtres ou salées de même que dans les terres non cultivables. Le rendement en lipide peut être largement supérieur aux autres sources de biocarburant potentiel, sans oublier qu’elles ne sont pas comestibles et sans aucun impact sur l'industrie alimentaire. De plus, la culture intensive de microalgues pour la production de biodiesel pourrait également jouer un rôle important dans l'atténuation des émissions de CO2. Dans le cache de ce travail, nous avons isolé et identifié morphologiquement des espèces de microalgues natives du Québec, pour ensuite examiner et mesurer leur potentiel de production de lipides (biodiesel). L’échantillonnage fut réalisé dans trois régions différentes du Québec: la région de Montréal, la gaspésie et le nord du Québec, et dans des eaux douces, saumâtres ou salées. Cent souches ont été isolées à partir de la région de Montréal, caractérisées et sélectionnées selon la teneur en lipides et leur élimination des nutriments dans les eaux usées à des températures différentes (10 ± 2°C et 22 ± 2°C). Les espèces ayant une production potentiellement élevée en lipides ont été sélectionnées. L’utilisation des eaux usées, comme milieu de culture, diminue le coût de production du biocarburant et sert en même temps d'outil pour le traitement des eaux usées. Nous avons comparé la biomasse et le rendement en lipides des souches cultivées dans une eau usée par apport à ceux dans un milieu synthétique, pour finalement identifié un certain nombre d'isolats ayant montré une bonne croissance à 10°C, voir une teneur élevée en lipides (allant de 20% à 45% du poids sec) ou une grande capacité d'élimination de nutriment (>97% d'élimination). De plus, nous avons caractérisé l'une des souches intéressantes ayant montré une production en lipides et une biomasse élevée, soit la microalgue Chlorella sp. PCH90. Isolée au Québec, sa phylogénie moléculaire a été établie et les études sur la production de lipides en fonction de la concentration initiale de nitrate, phosphate et chlorure de sodium ont été réalisées en utilisant de la méthodologie des surfaces de réponse. Dans les conditions appropriées, cette microalgue pourrait produire jusqu'à 36% de lipides et croitre à la fois dans un milieu synthétique et un milieu issu d'un flux secondaire de traitement des eaux usées, et cela à 22°C ou 10°C. Ainsi, on peut conclure que cette souche est prometteuse pour poursuivre le développement en tant que productrice potentielle de biocarburants dans des conditions climatiques locales.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dans le contexte du changement climatique, la chaleur est, depuis le début des années 2000, une préoccupation grandissante, d’abord en tant qu’enjeu sanitaire puis comme problématique affectant la qualité de vie des citoyens. Au Québec, le concept d’îlot de chaleur urbain, issu de la climatologie urbaine, a graduellement émergé dans le discours des autorités et de certains acteurs de l’aménagement. Or, on constate l’existence d’un certain décalage entre les connaissances scientifiques et l’interprétation qu’en font les urbanistes. Dans le cadre de ce mémoire, on a tenté d’identifier les facteurs explicatifs de ce décalage en s’intéressant au processus d’acquisition des connaissances des urbanistes québécois. Par le biais d’entretiens réalisés auprès des principaux acteurs ayant contribué à l’émergence de l’ICU au Québec, on a été en mesure d’identifier les éléments ayant entraîné certaines distorsions des connaissances. L’absence d’interdisciplinarité entre la climatologie urbaine et l’urbanisme tout au long du processus d’acquisition des connaissances ainsi qu’une interprétation tronquée de la carte des températures de surface expliquent principalement la nature du décalage observé.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In this study the quality and process control factors during the production and storage of salted dried fish products. The study reveals that quantity of dry fish production in the state is decreasing and dry fish processing industry should be encouraged by central and state governments. The dry and wet salting may be carried out to a period of 4 to 8 hours respectively and time may depend on temperature, size, and concentration of medium. Demand is an unavoidable factor for sale of fish. The packed dry salted lots kept at room temperature are useful only for 20 days. The refrigerator- stored lots had more storage life and nutritional content are good up to 3 months. The cold storage stored dry salted lot had more storage life than the wet salted lot. The use of preservatives in salting is encouraged to reduce pH. The low temperature preservation maintains the nutritional value and quality for long period. It further encourages the labeling of nutritional value of dry fish as in tinned products.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Most adaptive linearization circuits for the nonlinear amplifier have a feedback loop that returns the output signal oj'tne eunplifier to the lineurizer. The loop delay of the linearizer most be controlled precisely so that the convergence of the linearizer should be assured lot this Letter a delay control circuit is presented. It is a delay lock loop (ULL) with it modified early-lute gate and can he easily applied to a DSP implementation. The proposed DLL circuit is applied to an adaptive linearizer with the use of a polynomial predistorter, and the simulalion for a 16-QAM signal is performed. The simulation results show that the proposed DLL eliminates the delay between the reference input signal and the delayed feedback signal of the linearizing circuit perfectly, so that the predistorter polynomial coefficients converge into the optimum value and a high degree of linearization is achieved

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Plasticized poly(vinyl chloride) (pPVC), although a major player in the medical field, is at present facing lot of criticism due to some of its limitations like the leaching out of the toxic plasticizer, di ethylhexyl phthalate (DEHP) to the medium and the emission of an environmental pollutant,dioxin gas,at the time of the post use disposal of PVC Products by incineration. Due to these reasons, efforts are on to reduce the use of pPVC considerably in the medical field and to find viable alternative materials. The present study has been undertaken in this context to find a suitable material for the manufacture of medical aids in place of pPVC. The main focus of this study has been to find out a non-DEHP material as plasticizer for pPVC and another suitable material for the complete repalcement of pPVC for blood/ blood component storage applications.Two approaches have been undertaken for this purpose-(1)the controversial plasticizer, DEHP has been partially replaced by polymeric plasticizers(2) an alternative material, namely, metallocene polyolefin (mPO) has been used and suitably modified to match the properties of flexible PVC used for blood and blood component storage applications.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Soil moisture plays a cardinal role in sustaining eclological balance and agricultural development – virtually the very existence of life on earth. Because of the growing shortage of water resources, we have to use the available water most efficiently by proper management. Better utilization of rainfall or irrigation management depends largely on the water retention characteristics of the soil.Soil water retention is essential to life and it provides an ongoing supply of water to plants between periods of irrigation so as to allow their continued growth and survival.It is essential to maintain readily available water in the soil if crops are to sustain satisfactory growth. The plant growth may be retarded if the soil moisture is either deficient or excessive. The optimum moisture content is that moisture which leads to optimum growth of plant. When watering is done, the amount of water supplied should be such that the water content is equal to the field capacity that is the water remained in the saturated soil after gravitational drainage. Water will gradually be utilized consumptively by plants after the water application, and the soil moisture will start falling. When the water content in the soil reaches the value known as permanent wilting point (when the plant starts wilting) fresh dose of irrigation may be done so that water content is again raised to the field capacity of soil.Soil differ themselves in some or all the properties depending on the difference in the geotechnical and environmental factors. Soils serve as a reservoir of the nutrients and water required for crops.Study of soil and its water holding capacity is essential for the efficient utilization of irrigation water. Hence the identification of the geotechnical parameters which influence the water retention capacity, chemical properties which influence the nutrients and the method to improve these properties have vital importance in irrigation / agricultural engineering. An attempt in this direction has been made in this study by conducting the required tests on different types of soil samples collected from various locations in Trivandrum district Kerala, with and without admixtures like coir pith, coir pith compost and vermi compost. Evaluation of the results are presented and a design procedure has been proposed for a better irrigation scheduling and management.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A detailed study of the blends of ethylene-propylene-diene rubber (EPDM) and chlorobutyl rubber (CIIR) is proposed in this study. These blends may find application in the manufacture of curing diaphragms/curing envelopes for tire curing applications. EPDM possesses better physical properties such as high heat resistance, ozone resistance, cold and moisture resistance, high resistance to permanent defonnation, very good resistance to flex cracking and impact. Because of the low gas and moisture penneability, good weathering resistance and high thermal stability of CIIR, blends of EPDM with CIlR may be attractive, if sufficient mechanical strength can be developed. Although a lot of work has been done on elastomer blends, studies on the blends of EPDM and CIIR rubbers are meagre. Hence in this investigation it is proposed to make a systematic study on the characteristics of EPDM and CIIR rubber blends.The mechanical and physical properties of an elastomer blend depend mainly on the blend compatibility. So in the first part of the study, it is proposed to develop compatible blends of EPDM with CIIR. Various commercial grades of ethylenepropylene- diene rubber are proposed to be blended with a specific grade of chlorobutyl rubber at varying proportions. The extent of compatibility in these blends is proposed to be evaluated based on their mechanical properties such as tensile strength, tear strength and ageing resistance. In addition to the physical property measurements, blend compatibility is also proposed to be studied based on the glass transition behavlour of the blends in relation to the Tg's of the individual components using Differential Scanning Calorimetry (DSC) and Dynamic Mechanical Analysis (DMA). The phase morphology of the blends is also proposed to be investigated by Scanning Electron Microscopy (SEM) studies of the tensile fracture surfaces. In the case of incompatible blends, the effect of addition of chlorosulfonated polyethylene as a compatibiliser is also proposed to be investigated.In the second part of the study, the effect of sulphur curing and resin curing on the curing behaviour and the vulcanizate properties of EPDM/CIIR blends are planned to be evaluated. Since the properties of rubber vulcanizates are determined by their network structures, it is proposed to determine the network structure of the vulcanizates by chemical probes so as to correlate it with the mechanical properties.In the third part of the work, the effect of partial precuring of one of the components prior to blending as a possible means of improving the properties of the blend is proposed to be investigated. This procedure may also help to bring down the viscosity mismatch between the constituent e1astomers and provide covulcanization of the blend.The rheological characteristics and processability of the blends are proposed to be investigated in the last part of the study. To explore their possible applications, the air permeability of the blend samples at varying temperatures is proposed to be measured. The thermal diffusivity behaviour of EPDM/CIlR blends is also proposed to be investigated using novel laser technique. The thermal diffusivity of the blends along with the thermal degradation resistance may help to determine whether the blends are suitable for high temperature applications such as in the manufacturing of curing envelope.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

One major component of power system operation is generation scheduling. The objective of the work is to develop efficient control strategies to the power scheduling problems through Reinforcement Learning approaches. The three important active power scheduling problems are Unit Commitment, Economic Dispatch and Automatic Generation Control. Numerical solution methods proposed for solution of power scheduling are insufficient in handling large and complex systems. Soft Computing methods like Simulated Annealing, Evolutionary Programming etc., are efficient in handling complex cost functions, but find limitation in handling stochastic data existing in a practical system. Also the learning steps are to be repeated for each load demand which increases the computation time.Reinforcement Learning (RL) is a method of learning through interactions with environment. The main advantage of this approach is it does not require a precise mathematical formulation. It can learn either by interacting with the environment or interacting with a simulation model. Several optimization and control problems have been solved through Reinforcement Learning approach. The application of Reinforcement Learning in the field of Power system has been a few. The objective is to introduce and extend Reinforcement Learning approaches for the active power scheduling problems in an implementable manner. The main objectives can be enumerated as:(i) Evolve Reinforcement Learning based solutions to the Unit Commitment Problem.(ii) Find suitable solution strategies through Reinforcement Learning approach for Economic Dispatch. (iii) Extend the Reinforcement Learning solution to Automatic Generation Control with a different perspective. (iv) Check the suitability of the scheduling solutions to one of the existing power systems.First part of the thesis is concerned with the Reinforcement Learning approach to Unit Commitment problem. Unit Commitment Problem is formulated as a multi stage decision process. Q learning solution is developed to obtain the optimwn commitment schedule. Method of state aggregation is used to formulate an efficient solution considering the minimwn up time I down time constraints. The performance of the algorithms are evaluated for different systems and compared with other stochastic methods like Genetic Algorithm.Second stage of the work is concerned with solving Economic Dispatch problem. A simple and straight forward decision making strategy is first proposed in the Learning Automata algorithm. Then to solve the scheduling task of systems with large number of generating units, the problem is formulated as a multi stage decision making task. The solution obtained is extended in order to incorporate the transmission losses in the system. To make the Reinforcement Learning solution more efficient and to handle continuous state space, a fimction approximation strategy is proposed. The performance of the developed algorithms are tested for several standard test cases. Proposed method is compared with other recent methods like Partition Approach Algorithm, Simulated Annealing etc.As the final step of implementing the active power control loops in power system, Automatic Generation Control is also taken into consideration.Reinforcement Learning has already been applied to solve Automatic Generation Control loop. The RL solution is extended to take up the approach of common frequency for all the interconnected areas, more similar to practical systems. Performance of the RL controller is also compared with that of the conventional integral controller.In order to prove the suitability of the proposed methods to practical systems, second plant ofNeyveli Thennal Power Station (NTPS IT) is taken for case study. The perfonnance of the Reinforcement Learning solution is found to be better than the other existing methods, which provide the promising step towards RL based control schemes for practical power industry.Reinforcement Learning is applied to solve the scheduling problems in the power industry and found to give satisfactory perfonnance. Proposed solution provides a scope for getting more profit as the economic schedule is obtained instantaneously. Since Reinforcement Learning method can take the stochastic cost data obtained time to time from a plant, it gives an implementable method. As a further step, with suitable methods to interface with on line data, economic scheduling can be achieved instantaneously in a generation control center. Also power scheduling of systems with different sources such as hydro, thermal etc. can be looked into and Reinforcement Learning solutions can be achieved.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Màster en Nanociència i Nanotecnologia. Curs 2007-2008. Directors: Francesca Peiró i Martínez and Jordi Arbiol i Cobos

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Shrimp Aquaculture has provided tremendous opportunity for the economic and social upliftment of rural communities in the coastal areas of our country Over a hundred thousand farmers, of whom about 90% belong to the small and marginal category, are engaged in shrimp farming. Penaeus monodon is the most predominant cultured species in India which is mainly exported to highly sophisticated, quality and safety conscious world markets. Food safety has been of concem to humankind since the dawn of history and the concern about food safety resulted in the evolution of a cost effective, food safety assurance method, the Hazard Analysis Critical Control Point (HACCP). Considering the major contribution of cultured Penaeus monodon to the total shrimp production and the economic losses encountered due to disease outbreak and also because traditional methods of quality control and end point inspection cannot guarantee the safety of our cultured seafood products, it is essential that science based preventive approaches like HACCP and Pre requisite Programmes (PRP) be implemented in our shrimp farming operations. PRP is considered as a support system which provides a solid foundation for HACCP. The safety of postlarvae (PL) supplied for brackish water shrimp farming has also become an issue of concern over the past few years. The quality and safety of hatchery produced seeds have been deteriorating and disease outbreaks have become very common in hatcheries. It is in this context that the necessity for following strict quarantine measures with standards and code of practices becomes significant. Though there were a lot of hue and cry on the need for extending the focus of seafood safety assurance from processing and exporting to the pre-harvest and hatchery rearing phases, an experimental move in this direction has been rare or nil. An integrated management system only can assure the effective control of the quality, hygiene and safety related issues. This study therefore aims at designing a safety and quality management system model for implementation in shrimp farming and hatchery operations by linking the concepts of HACCP and PRP.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The metals present in the surface sediments have high demand on a global perspective, and the main reservoir of these elements is believed to be the ocean floor. A lot of studies on metals are going on throughout the world for its quantification and exploitation. Even though, some preliminary attempts have been made in selected areas for the quantitative study of metals in the western continental shelf of India, no comprehensive work has been reported so far. The importance of this study also lies on the fact that there has not been a proper evaluation of the impact of the Great Tsunami of 2004 on the coastal areas of the south India. In View of this, an attempt has been made to address the seasonal distribution, behavior and mechanisms which control the deposition of metals in the sediments of the western continental shelf and Cochin Estuary, an annex to this coastal marine region.Surface sediment samples were collected seasonally from two subenvironemnts of southwest coast of India, (continental shelf of Kerala and Cochin estuarine system), to estimate the seasonal distribution and geochemical behavior of non-transition, transition, rare-earth elements, Th and U. Bottom water samples were also taken from each station, and analysed for temperature, salinity and dissolved oxygen, hence the response of redox sensitive elements to oxygen minimum zone can be addressed. In addition, other sedimentary parameters such as sand, silt, clay fractions, CaCO3 and organic carbon content were also estimated to evaluate the control factors on level of metals present in the sediment. The study used different environmental data analysis techniques to evaluate the distribution and behavior of elements during different seasons. This includes environmental parameters such as elemental normalisation, enrichment factor, element excess, cerium and europium anomalies and authigenic uranium.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In this introduction part, importance has been given to the elastomeric properties of polyurethanes. Emphasis has been laid to this property based on microphase separation and how this could be modified by modifying the segment lengths, as well as the structure of the segments. Implication was also made on the mechanical and thermal properties of these copolymers based on various analytical methods usually used for characterization of polymers. A brief overview of the challenges faced by the polyurethane chemistry was also done, pointing to the fact that though polyurethane industry is more than 75 years old, still a lot of questions remain unanswered, that too mostly in the synthesis of polyurethanes. A major challenge in this industry is the utilization of more environmental friendly “Green Chemistry Routes” for the synthesis of polyurethanes which are devoid of any isocyanates or harsh solvents.The research work in this thesis was focused to develop non-isocyanate green chemical process for polyurethanes and also self-organize the resultant novel polymers into nano-materials. The thesis was focused on the following three major aspects:(i) Design and development of novel melt transurethane process for polyurethanes under non-isocyanate and solvent free melt condition. (ii) Solvent induced self-organization of the novel cycloaliphatic polyurethanes prepared by the melt transurethane process into microporous templates and nano-sized polymeric hexagons and spheres. (iii) Novel polyurethane-oligophenylenevinylene random block copolymer nano-materials and their photoluminescence properties. The second chapter of the thesis gives an elaborate discussion on the “Novel Melt Transurethane Process ” for the synthesis of polyurethanes under non-isocyanate and solvent free melt condition. The polycondensation reaction was carried out between equimolar amounts of a di-urethane monomer and a diol in the presence of a catalyst under melt condition to produce polyurethanes followed by the removal of low boiling alcohol from equilibrium. The polymers synthesized through this green chemical route were found to be soluble (devoid of any cross links), thermally stable and free from any isocyanate entities. The polymerization reaction was confirmed by various analytical techniques with specific references to the extent of reaction which is the main watchful point for any successful polymerization reaction. The mechanistic aspects of the reaction were another point of consideration for the novel polymerization route which was successfully dealt with by performing various model reactions. Since this route was successful enough in synthesizing polyurethanes with novel structures, they were employed for the solvent induced self-organization which is an important area of research in the polymer world in the present scenario. Chapter three mesmerizes the reader with multitudes of morphologies depending upon the chemical backbone structure of the polyurethane as well as on the nature and amount of various solvents employed for the self-organization tactics. The rationale towards these morphologies-“Hydrogen Bonding ” have been systematically probed by various techniques. These polyurethanes were then tagged with luminescent 0ligo(phenylene vinylene) units and the effects of these OPV blocks on the morphology of the polyurethanes were analyzed in chapter four. These blocks have resulted in the formation of novel “Blue Luminescent Balls” which could find various applications in optoelectronic devices as well as delivery vehicles.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The present study examines the importance of low saline waters and resulting barrier layer in the dynamics of the ASWP using observational data.The oceanic general circulation models (OGCM) are very useful for exploring the processes responsible for the ASWP and their variability. The circulation and thermohaline structure stimulated by an OGCM changes a lot when the resolution is increased from mesoscale to macro scale. For a reasonable simulation of the ASWP, we must include the mesoscale turbulence in numerical models. Especially the SEAS is an eddy prominent region with a horizontal dimension of 100 to 500 km and vertical extent of hundred meters. These eddies may have an important role on the evolution of ASWP, which has not been explored so far.Most of the earlier studies in the SEAS showed that the heat buildup in the mixed layer during the pre-monsoon (March-May) is primarily driven by the surface heat flux through the ocean-atmosphere interface, while the 3-dimensional heat budget of the ML physical processes that are responsible for the formation of the ASWP are unknown. With this background the present thesis also examines the relative importance of mixed layer processes that lead to the formation of warm pool in the SEAS.