925 resultados para Trade balance and tariff code
Resumo:
Adjustement is an ongoing process by which factors of reallocated to equalize their returns in different uses. Adjustment occurs though market mechanisms or intrafirm reallocation of resources as a result of changes in terms of trade, government policies, resource availability, technological change, etc. These changes alter production opportunities and production, transaction and information costs, and consequently modify production functions, organizational design, etc. In this paper we define adjustment (section 2); review empirical estimates of the extent of adjustment in Canada and abroad (section 3); review selected features of the trade policy and adjustment context of relevance for policy formulation among which: slow growth, a shift to services, a shift to the Pacific Rim, the internationalization of production, investment distribution communications the growing use of NTB's, changes in foreign direct investment patterns, intrafirm and intraindustry trade, interregional trade flows, differences in micro economic adjustment processes of adjustment as between subsidiaries and Canadian companies (section 4); examine methodologies and results of studies of the impact of trade liberalization on jobs (section 5); and review the R. Harris general equilibrium model (section 6). Our conclusion emphasizes the importance of harmonizing commercial and domestic policies dealing with adjustment (section 7). We close with a bibliography of relevant publications.
Resumo:
An exemination of a series of indicators of economic integration in the western hemisphere (Canada-USA-Latin America) indicates that it is proceeding under the influence of formal trade agreements and informal forces including technological change, multinational firm rationalization and location strategies, etc.
Resumo:
"Thèse présentée à la Faculté des études supérieures en vue de l'obtention du grade de Docteur en Droit (LL.D.) et à la Faculté de Droit et de Sciences Politiques de l'Université de Nantes en vue de l'obtention du grade de Docteur"
Resumo:
"Mémoire présenté à la Faculté des Études supérieures En vue de l'obtention du grade de Maîtrise en droit des affaires (LL.M.)"
Resumo:
La dernière décennie a connu un intérêt croissant pour les problèmes posés par les variables instrumentales faibles dans la littérature économétrique, c’est-à-dire les situations où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter. En effet, il est bien connu que lorsque les instruments sont faibles, les distributions des statistiques de Student, de Wald, du ratio de vraisemblance et du multiplicateur de Lagrange ne sont plus standard et dépendent souvent de paramètres de nuisance. Plusieurs études empiriques portant notamment sur les modèles de rendements à l’éducation [Angrist et Krueger (1991, 1995), Angrist et al. (1999), Bound et al. (1995), Dufour et Taamouti (2007)] et d’évaluation des actifs financiers (C-CAPM) [Hansen et Singleton (1982,1983), Stock et Wright (2000)], où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter, ont montré que l’utilisation de ces statistiques conduit souvent à des résultats peu fiables. Un remède à ce problème est l’utilisation de tests robustes à l’identification [Anderson et Rubin (1949), Moreira (2002), Kleibergen (2003), Dufour et Taamouti (2007)]. Cependant, il n’existe aucune littérature économétrique sur la qualité des procédures robustes à l’identification lorsque les instruments disponibles sont endogènes ou à la fois endogènes et faibles. Cela soulève la question de savoir ce qui arrive aux procédures d’inférence robustes à l’identification lorsque certaines variables instrumentales supposées exogènes ne le sont pas effectivement. Plus précisément, qu’arrive-t-il si une variable instrumentale invalide est ajoutée à un ensemble d’instruments valides? Ces procédures se comportent-elles différemment? Et si l’endogénéité des variables instrumentales pose des difficultés majeures à l’inférence statistique, peut-on proposer des procédures de tests qui sélectionnent les instruments lorsqu’ils sont à la fois forts et valides? Est-il possible de proposer les proédures de sélection d’instruments qui demeurent valides même en présence d’identification faible? Cette thèse se focalise sur les modèles structurels (modèles à équations simultanées) et apporte des réponses à ces questions à travers quatre essais. Le premier essai est publié dans Journal of Statistical Planning and Inference 138 (2008) 2649 – 2661. Dans cet essai, nous analysons les effets de l’endogénéité des instruments sur deux statistiques de test robustes à l’identification: la statistique d’Anderson et Rubin (AR, 1949) et la statistique de Kleibergen (K, 2003), avec ou sans instruments faibles. D’abord, lorsque le paramètre qui contrôle l’endogénéité des instruments est fixe (ne dépend pas de la taille de l’échantillon), nous montrons que toutes ces procédures sont en général convergentes contre la présence d’instruments invalides (c’est-à-dire détectent la présence d’instruments invalides) indépendamment de leur qualité (forts ou faibles). Nous décrivons aussi des cas où cette convergence peut ne pas tenir, mais la distribution asymptotique est modifiée d’une manière qui pourrait conduire à des distorsions de niveau même pour de grands échantillons. Ceci inclut, en particulier, les cas où l’estimateur des double moindres carrés demeure convergent, mais les tests sont asymptotiquement invalides. Ensuite, lorsque les instruments sont localement exogènes (c’est-à-dire le paramètre d’endogénéité converge vers zéro lorsque la taille de l’échantillon augmente), nous montrons que ces tests convergent vers des distributions chi-carré non centrées, que les instruments soient forts ou faibles. Nous caractérisons aussi les situations où le paramètre de non centralité est nul et la distribution asymptotique des statistiques demeure la même que dans le cas des instruments valides (malgré la présence des instruments invalides). Le deuxième essai étudie l’impact des instruments faibles sur les tests de spécification du type Durbin-Wu-Hausman (DWH) ainsi que le test de Revankar et Hartley (1973). Nous proposons une analyse en petit et grand échantillon de la distribution de ces tests sous l’hypothèse nulle (niveau) et l’alternative (puissance), incluant les cas où l’identification est déficiente ou faible (instruments faibles). Notre analyse en petit échantillon founit plusieurs perspectives ainsi que des extensions des précédentes procédures. En effet, la caractérisation de la distribution de ces statistiques en petit échantillon permet la construction des tests de Monte Carlo exacts pour l’exogénéité même avec les erreurs non Gaussiens. Nous montrons que ces tests sont typiquement robustes aux intruments faibles (le niveau est contrôlé). De plus, nous fournissons une caractérisation de la puissance des tests, qui exhibe clairement les facteurs qui déterminent la puissance. Nous montrons que les tests n’ont pas de puissance lorsque tous les instruments sont faibles [similaire à Guggenberger(2008)]. Cependant, la puissance existe tant qu’au moins un seul instruments est fort. La conclusion de Guggenberger (2008) concerne le cas où tous les instruments sont faibles (un cas d’intérêt mineur en pratique). Notre théorie asymptotique sous les hypothèses affaiblies confirme la théorie en échantillon fini. Par ailleurs, nous présentons une analyse de Monte Carlo indiquant que: (1) l’estimateur des moindres carrés ordinaires est plus efficace que celui des doubles moindres carrés lorsque les instruments sont faibles et l’endogenéité modérée [conclusion similaire à celle de Kiviet and Niemczyk (2007)]; (2) les estimateurs pré-test basés sur les tests d’exogenété ont une excellente performance par rapport aux doubles moindres carrés. Ceci suggère que la méthode des variables instrumentales ne devrait être appliquée que si l’on a la certitude d’avoir des instruments forts. Donc, les conclusions de Guggenberger (2008) sont mitigées et pourraient être trompeuses. Nous illustrons nos résultats théoriques à travers des expériences de simulation et deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le problème bien connu du rendement à l’éducation. Le troisième essai étend le test d’exogénéité du type Wald proposé par Dufour (1987) aux cas où les erreurs de la régression ont une distribution non-normale. Nous proposons une nouvelle version du précédent test qui est valide même en présence d’erreurs non-Gaussiens. Contrairement aux procédures de test d’exogénéité usuelles (tests de Durbin-Wu-Hausman et de Rvankar- Hartley), le test de Wald permet de résoudre un problème courant dans les travaux empiriques qui consiste à tester l’exogénéité partielle d’un sous ensemble de variables. Nous proposons deux nouveaux estimateurs pré-test basés sur le test de Wald qui performent mieux (en terme d’erreur quadratique moyenne) que l’estimateur IV usuel lorsque les variables instrumentales sont faibles et l’endogénéité modérée. Nous montrons également que ce test peut servir de procédure de sélection de variables instrumentales. Nous illustrons les résultats théoriques par deux applications empiriques: le modèle bien connu d’équation du salaire [Angist et Krueger (1991, 1999)] et les rendements d’échelle [Nerlove (1963)]. Nos résultats suggèrent que l’éducation de la mère expliquerait le décrochage de son fils, que l’output est une variable endogène dans l’estimation du coût de la firme et que le prix du fuel en est un instrument valide pour l’output. Le quatrième essai résout deux problèmes très importants dans la littérature économétrique. D’abord, bien que le test de Wald initial ou étendu permette de construire les régions de confiance et de tester les restrictions linéaires sur les covariances, il suppose que les paramètres du modèle sont identifiés. Lorsque l’identification est faible (instruments faiblement corrélés avec la variable à instrumenter), ce test n’est en général plus valide. Cet essai développe une procédure d’inférence robuste à l’identification (instruments faibles) qui permet de construire des régions de confiance pour la matrices de covariances entre les erreurs de la régression et les variables explicatives (possiblement endogènes). Nous fournissons les expressions analytiques des régions de confiance et caractérisons les conditions nécessaires et suffisantes sous lesquelles ils sont bornés. La procédure proposée demeure valide même pour de petits échantillons et elle est aussi asymptotiquement robuste à l’hétéroscédasticité et l’autocorrélation des erreurs. Ensuite, les résultats sont utilisés pour développer les tests d’exogénéité partielle robustes à l’identification. Les simulations Monte Carlo indiquent que ces tests contrôlent le niveau et ont de la puissance même si les instruments sont faibles. Ceci nous permet de proposer une procédure valide de sélection de variables instrumentales même s’il y a un problème d’identification. La procédure de sélection des instruments est basée sur deux nouveaux estimateurs pré-test qui combinent l’estimateur IV usuel et les estimateurs IV partiels. Nos simulations montrent que: (1) tout comme l’estimateur des moindres carrés ordinaires, les estimateurs IV partiels sont plus efficaces que l’estimateur IV usuel lorsque les instruments sont faibles et l’endogénéité modérée; (2) les estimateurs pré-test ont globalement une excellente performance comparés à l’estimateur IV usuel. Nous illustrons nos résultats théoriques par deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le modèle de rendements à l’éducation. Dans la première application, les études antérieures ont conclu que les instruments n’étaient pas trop faibles [Dufour et Taamouti (2007)] alors qu’ils le sont fortement dans la seconde [Bound (1995), Doko et Dufour (2009)]. Conformément à nos résultats théoriques, nous trouvons les régions de confiance non bornées pour la covariance dans le cas où les instruments sont assez faibles.
Resumo:
This paper provides a comparative analysis of corporate law and CSR and asks whether there are lessons for Australia from corporate law and CSR developments in France. This presentation presents a summary of the provisions of the new French Act Number 2010-788 passed on 12 July 2010 – called “Grenelle 2” –. Firstly, article 225 of Law’s Grenelle 2 changes the Commercial Code to extend the reach of non-financial reporting and to ensure its pertinence. Secondly, article 227 Law’s Grenelle 2 amends certain provisions of the Commercial and Environmental Codes and incorporates into substantive law the liability of parent companies for their subsidiaries. In fine, article 224 of Law’s Grenelle 2 reinforces the pressure on the market to act in a responsible manner. It modifies article 214-12 of the Monetary and Financial Code in order to compel institutional investors (mutual funds and fund management companies) to take social, environmental and governance criteria into account in their investment policy.
Resumo:
Introduction: En réponse aux exigences du gouvernement fédéral en ce qui concerne les temps d'attente pour les chirurgies électives d’hanche et du genou, les Organismes Canadiens de santé ont adopté des stratégies de gestion pour les listes d'attente. Cependant, il n'existe pas actuellement aucune information disponible concernant les effets imprévus, positive ou négative, de ces stratégies. Méthodologie: Un modèle qui a été construit est tombé en panne la gestion de la chirurgie d’hanche et du genou en différentes étapes, afin d'identifier les effets imprévus possibles pour chaque étape; le modèle a été validé auprès d'un panel d'experts. Cette étude a choisi quatre études de cas en fonction de leur durabilité: un cas qui a été durable, un cas qui a été modérément durable, et deux cas peu probable d'être durable. Dans cette étude qualitative, nous avons mené 31 entretiens semi-structurés entre Novembre 2010 et Juin 2011 avec les gestionnaires, les infirmières, les thérapeutes et les chirurgiens impliqués dans la gestion des stratégies du temps d’attente pour les chirurgies électives d’hanche et du genou. Les quatre cas ont été sélectionnés à partir de trois provinces / régions. Nous avons analysé les conséquences non intentionnelles aux niveaux systémique et organisationnelle en utilisant les stratégies dans chaque contexte. Enregistrements des entrevues ont été transcrits mot à mot et soumis à l'analyse du cadre. Résultats: Les effets négatifs sont la précarité des stratégies en raison du non-récurrente financement, l'anxiété chez les patients qui ne sont pas prêts pour la chirurgie, une redistribution du temps de chirurgie vers l’orthopédie au détriment des autres interventions chirurgicales, tensions entre les chirurgiens et entre les orthopédistes et anesthésistes, et la pression sur le personnel dans le bloc opératoire et postopératoire. Conclusion: La stratégie d’implémentation aux niveaux national et local devrait prendre en compte les conséquences potentielles, positives et négatives. Il y a des conséquences inattendues à chaque niveau de l'organisation des soins de santé. Individuellement et collectivement, ces conséquences peuvent positivement et négativement affecter les résultats. Par conséquent, la planification de la santé doit analyser et prendre en compte les conséquences inattendues en termes de bonnes résultats inattendues, compromis et les conséquences négatives afin d'améliorer les résultats.
Resumo:
Malgré un intérêt grandissant pour la question du devenir des survivants de tumeur cérébrale pédiatrique, l’évaluation de leur équilibre est souvent négligée. Les objectifs de nos travaux étaient de 1) examiner les écrits portant sur l’équilibre chez les survivants de tumeur cérébrale pédiatrique; 2) comparer l'équilibre debout et la qualité de vie entre les survivants et un groupe d’enfants témoins; et 3) examiner l'association entre l'équilibre debout et qualité de vie chez les survivants. Notre recension des écrits démontra que les survivants de tumeur cérébrale présentent des troubles de l’équilibre, mais les limites méthodologiques des études nous empêchent de conclure de manière définitive. Ensuite, nous avons recruté un groupe d’enfants survivants d’une tumeur cérébrale de la fosse postérieure et un groupe d’enfants sains. Leur équilibre était évalué à l’aide du Bruininks-Oseretsky Test of Motor Proficiency-2nd edition (BOT-2) et du Pediatric Balance Scale (PBS). Certains participants ont aussi été évalués avec une plate-forme de force où les limites de stabilité étaient documentées. Finalement, tous les enfants et leurs parents remplissaient le Pediatric Quality of Life Inventory (PedsQL4.0). Nos résultats démontrent que les survivants présentent une diminution de l’équilibre mise en évidence par le BOT-2, mais que leur qualité de vie est similaire aux enfants sains. La performance au BOT-2 est associée à la dimension physique du PedsQL4.0, suggérant une relation entre l’équilibre et la qualité de vie. Nos résultats suggèrent qu’une évaluation de l’équilibre pourrait être bénéfique chez cette clientèle afin de mieux cerner ses besoins de réadaptation.
Les navires vikings : conception géométrique et architecture traditionnelle au Moyen Âge scandinave.
Resumo:
Selon l’image reçue des Vikings, ce peuple incarne l'esprit d’une immense solidarité primitive ayant su résister rudement au joug du christianisme et à la domination du Latin en Europe occidentale. Cette image n’est pas sans ses contradictions et, s’il est vrai que l’écriture était encore inconnue en Scandinavie durant les premiers siècles de l’expansion viking, on sait maintenant que le commerce et la colonisation, autant que les célèbres raids, motivèrent l’irruption des peuples scandinaves sur la scène médiévale. Quant aux navires de ces marchands, colonisateurs, pêcheurs et guerriers, ils apparaissent, un peu à l’image des Vikings eux-mêmes, sur le grand tableau de l’histoire nautique sous l’enseigne d’une originalité et d’une technicité sans parallèle. Comment les Vikings construisaient-ils leurs navires, en leur donnant une symétrie, un équilibre et une finesse si achevés? Les premiers ethnologues qui se sont intéressés à cette question ont privilégié les idées issues d'une tradition acquise par des générations de constructeurs, et d'astuces simples pour équilibrer tribord et bâbord. Puis, ils se sont rapidement tournés vers les techniques inhérentes à la construction à clin : utilisation de planches fendues et non sciées et de rivets abondants témoignant d’une sidérurgie acquise depuis peu. Le problème que présentent ces navires, est que leur construction artisanale demeure conforme à l’image reçue des Vikings, mais que leur conception architecturale, réalisée selon des connaissances théoriques très exactes, brise la notion d’une Scandinavie médiévale illettrée et coupée des grands centres du savoir. Ce travail s’intéresse précisément à la conception architecturale des navires scandinaves du VIIIe au XIe siècle pour montrer comment ils s’insèrent dans un haut savoir européen dès leur apparition. Il explore ensuite les liens qui unissent ce savoir théorique aux aspects véritablement originaux des navires vikings, en l’occurrence leur construction à clin et leur homogénéité sur une grande région à travers plus de cinq siècles. Au terme de cette recherche, l'analyse réalisée sur le maître-couple de trois épaves vikings, une épave antique et une épave scandinave pré-viking, a permis de mettre en évidence plusieurs indices de l'utilisation du système de conception géométrique apparaissant pour la première fois dans les traités d'architecture navale de la Renaissance, et ce, sur chacune de ces épaves. Les résultats obtenus démontrent qu'il est possible d'employer un système transversal de conception pour des navires vraisemblablement construits bordé premier et assemblés à clin.
Resumo:
En 2007, le premier ministre Stephen Harper a annoncé que le renouvellement de l’engagement du Canada dans les Amériques était une priorité internationale pour son gouvernement. Le document qui a formalisé la nouvelle priorité accordée à l’hémisphère occidental stipule que le Canada s’est engagé à faire progresser concurremment la démocratie, l’intégration économique et la sécurité. Cette recherche a pour but de remettre en cause le discours officiel en analysant la politique du Canada à l’égard de la Colombie et du Honduras. L’étude sur le cas colombien porte sur les effets de l’intégration économique sur les droits humains et la sécurité. Elle montre que le texte de l’accord de libre-échange Canada-Colombie et les évaluations d’impact sur les droits humains n’abordent pas convenablement les risques entourant les investissements canadiens et que leurs lacunes diluent l’engagement d’Ottawa envers la protection des droits humains et la résolution du conflit. L’étude sur le cas hondurien porte sur l’impact des déficits démocratiques et de l’insécurité sur l’intégration économique. Elle montre que le virage à droite qui a suivi le coup d’État de 2009 a permis au gouvernement canadien d’entreprendre des négociations de libre-échange bilatérales et de prendre part à la réforme du code minier du Honduras, tandis que les déficits démocratiques et l’insécurité ont empêché la population hondurienne de participer d’une manière significative au processus d’intégration économique. Nous concluons que ces deux cas contredisent le discours officiel dans la mesure où l’objectif de l’intégration économique a été atteint aux dépens des autres objectifs.
Resumo:
L’objectif de cette thèse est d’analyser et de comprendre la dynamique de la controverse autour de l’adoption en 2009 du code des personnes et de la famille au Mali. Elle s’intéresse particulièrement aux principaux enjeux, c'est-à-dire aux questions à l’origine de cette controverse ainsi qu’aux stratégies mises en place par les différents acteurs sociaux (les organisations islamiques et leurs alliés, d’une part, et d’autre part, les organisations féminines et les leurs) afin d’infléchir le processus. En plus du pourquoi et du comment de cette controverse, notre recherche visait à comprendre le bilan du processus tiré par les acteurs eux-mêmes, le sentiment qui les anime à l’issu de ce long processus, leur appréciation de leur expérience, et leur vision de l’avenir. Pour étudier cette problématique, nous avons choisi l’approche de l’action collective protestataire, laquelle s’inspire à la fois des théories de l’action collective, et de celles des mouvements sociaux et des dynamiques contestataires. Afin d’analyser les enjeux au cœur de cette controverse, les stratégies utilisées par les acteurs ainsi que leur bilan du processus, nous avons opté pour une démarche qualitative. En plus de la littérature grise, des articles de presse, documents audio et audiovisuels sur le sujet, notre travail de terrain de quatre mois dans la capitale malienne nous a permis de réaliser plusieurs entrevues auprès des acteurs impliqués dans ce processus. S’étendant de 1996 à 2011, soit seize ans, l’élaboration du code des personnes et de la famille au Mali fut un processus long, complexe, inhabituel et controversé. Les résultats de notre recherche révèlent que plusieurs enjeux, notamment sociaux, étaient au cœur de cette controverse : le «devoir d’obéissance » de la femme à son mari, la légalisation du mariage religieux, l’« égalité » entre fille et garçon en matière d’héritage et de succession et la reconnaissance de l’enfant naturel ont été les questions qui ont suscité le plus de débats. Si durant tout le processus, les questions relatives à l’égalité de genre, au respect des droits de la femme et de l’enfant, étaient les arguments défendus par les organisations féminines et leurs alliés, celles relatives au respect des valeurs religieuses (islamiques), sociétales ou socioculturelles maliennes étaient, par contre, mises de l’avant par les organisations islamiques et leurs alliés. Ainsi, si le discours des OSC féminines portait essentiellement sur le « respect de l’égalité des sexes » conformément aux engagements internationaux signés par le Mali, celui des OSC islamiques s’est, en revanche, centré sur le « respect des valeurs islamiques et socioculturelles » du Mali. Quant aux canaux de communication, les OSC féminines se sont focalisées sur les canaux classiques comme la presse, les radios, les conférences, entre autres. Les OSC islamiques ont également utilisé ces canaux, mais elles se sont distinguées des OSC féminines en utilisant aussi les prêches. Organisés généralement dans les mosquées et autres espaces désignés à cet effet, ces prêches ont consacré la victoire des OSC islamiques. Les radios islamiques ont joué elles aussi un rôle important dans la transmission de leurs messages. Pour ce qui est des stratégies d’actions, l’action collective qui a changé la donne en faveur des OSC islamiques (renvoi du code en seconde lecture, prise en compte de leurs idées), a été le meeting du 22 août 2009 à Bamako, précédé de marches de protestation dans la capitale nationale et toutes les capitales régionales du pays. Quant aux OSC féminines, elles n’ont mené que quelques actions classiques (ou habituelle) comme les pétitions, le plaidoyer-lobbying, les conférences-débats, au point que certains observateurs ont parlé de « stratégie d’inaction » chez elles. L’analyse a également révélé l’utilisation de stratégies inusitées de menaces et d’intimidation par certains acteurs du camp des OSC islamiques à l’endroit des partisans du code. Si chaque groupe d’acteurs a noué des alliances avec des acteurs locaux, les OSC féminines sont les seules à reconnaitre des alliances avec les acteurs extérieurs. Aujourd’hui, si la plupart des membres des OSC islamiques ne cachent pas leur satisfaction face à leur « victoire » et se présentent en « sauveur de la nation malienne », la plupart des membres des OSC féminines se disent, quant à elles, très « déçues » et « indignées » face à l’adoption du code actuel. Elles ne comprennent pas pourquoi d’un « code progressiste », le Mali s’est retrouvé avec un « code rétrograde et discriminatoire » envers les femmes. La thèse confirme non seulement la difficile conciliation entre droit coutumier, loi islamique et droit « moderne », mais également l’idée que le droit demeure l’expression des rapports de pouvoir et de domination. Enfin, notre recherche confirme la désormais incontournable influence des acteurs religieux sur le processus d’élaboration des politiques publiques au Mali.
Resumo:
One of the fastest expanding areas of computer exploitation is in embedded systems, whose prime function is not that of computing, but which nevertheless require information processing in order to carry out their prime function. Advances in hardware technology have made multi microprocessor systems a viable alternative to uniprocessor systems in many embedded application areas. This thesis reports the results of investigations carried out on multi microprocessors oriented towards embedded applications, with a view to enhancing throughput and reliability. An ideal controller for multiprocessor operation is developed which would smoothen sharing of routines and enable more powerful and efficient code I data interchange. Results of performance evaluation are appended.A typical application scenario is presented, which calls for classifying tasks based on characteristic features that were identified. The different classes are introduced along with a partitioned storage scheme. Theoretical analysis is also given. A review of schemes available for reducing disc access time is carried out and a new scheme presented. This is found to speed up data base transactions in embedded systems. The significance of software maintenance and adaptation in such applications is highlighted. A novel scheme of prov1d1ng a maintenance folio to system firmware is presented, alongwith experimental results. Processing reliability can be enhanced if facility exists to check if a particular instruction in a stream is appropriate. Likelihood of occurrence of a particular instruction would be more prudent if number of instructions in the set is less. A new organisation is derived to form the basement for further work. Some early results that would help steer the course of the work are presented.
Resumo:
Soil moisture plays a cardinal role in sustaining eclological balance and agricultural development – virtually the very existence of life on earth. Because of the growing shortage of water resources, we have to use the available water most efficiently by proper management. Better utilization of rainfall or irrigation management depends largely on the water retention characteristics of the soil.Soil water retention is essential to life and it provides an ongoing supply of water to plants between periods of irrigation so as to allow their continued growth and survival.It is essential to maintain readily available water in the soil if crops are to sustain satisfactory growth. The plant growth may be retarded if the soil moisture is either deficient or excessive. The optimum moisture content is that moisture which leads to optimum growth of plant. When watering is done, the amount of water supplied should be such that the water content is equal to the field capacity that is the water remained in the saturated soil after gravitational drainage. Water will gradually be utilized consumptively by plants after the water application, and the soil moisture will start falling. When the water content in the soil reaches the value known as permanent wilting point (when the plant starts wilting) fresh dose of irrigation may be done so that water content is again raised to the field capacity of soil.Soil differ themselves in some or all the properties depending on the difference in the geotechnical and environmental factors. Soils serve as a reservoir of the nutrients and water required for crops.Study of soil and its water holding capacity is essential for the efficient utilization of irrigation water. Hence the identification of the geotechnical parameters which influence the water retention capacity, chemical properties which influence the nutrients and the method to improve these properties have vital importance in irrigation / agricultural engineering. An attempt in this direction has been made in this study by conducting the required tests on different types of soil samples collected from various locations in Trivandrum district Kerala, with and without admixtures like coir pith, coir pith compost and vermi compost. Evaluation of the results are presented and a design procedure has been proposed for a better irrigation scheduling and management.
Resumo:
The main objective of the study has been to analyse the marketing problems of Indian cardamom at home and abroad and examine possible courses of action which would lead to increased consumption of cardamom, both within India and abroad. This has been done in the context of the anticipated increases in the Indian and world supply of cardamom. Field studies were undertaken to understand the cost of production of cardamom and cost of export. This study was also directed at examining how far price fluctuations in cardamom can be controlled in the Indian context, so as to have a reasonable and stable income for primary producers which will ensure adequate encouragement for higher production and better export earnings.