886 resultados para small scale production model
Resumo:
In a linear production model, we characterize the class of efficient and strategy-proof allocation functions, and the class of efficient and coalition strategy-proof allocation functions. In the former class, requiring equal treatment of equals allows us to identify a unique allocation function. This function is also the unique member of the latter class which satisfies uniform treatment of uniforms.
Resumo:
Cette thèse examine les impacts sur la morphologie des tributaires du fleuve Saint-Laurent des changements dans leur débit et leur niveau de base engendrés par les changements climatiques prévus pour la période 2010–2099. Les tributaires sélectionnés (rivières Batiscan, Richelieu, Saint-Maurice, Saint-François et Yamachiche) ont été choisis en raison de leurs différences de taille, de débit et de contexte morphologique. Non seulement ces tributaires subissent-ils un régime hydrologique modifié en raison des changements climatiques, mais leur niveau de base (niveau d’eau du fleuve Saint-Laurent) sera aussi affecté. Le modèle morphodynamique en une dimension (1D) SEDROUT, à l’origine développé pour des rivières graveleuses en mode d’aggradation, a été adapté pour le contexte spécifique des tributaires des basses-terres du Saint-Laurent afin de simuler des rivières sablonneuses avec un débit quotidien variable et des fluctuations du niveau d’eau à l’aval. Un module pour simuler le partage des sédiments autour d’îles a aussi été ajouté au modèle. Le modèle ainsi amélioré (SEDROUT4-M), qui a été testé à l’aide de simulations à petite échelle et avec les conditions actuelles d’écoulement et de transport de sédiments dans quatre tributaires du fleuve Saint-Laurent, peut maintenant simuler une gamme de problèmes morphodynamiques de rivières. Les changements d’élévation du lit et d’apport en sédiments au fleuve Saint-Laurent pour la période 2010–2099 ont été simulés avec SEDROUT4-M pour les rivières Batiscan, Richelieu et Saint-François pour toutes les combinaisons de sept régimes hydrologiques (conditions actuelles et celles prédites par trois modèles de climat globaux (MCG) et deux scénarios de gaz à effet de serre) et de trois scénarios de changements du niveau de base du fleuve Saint-Laurent (aucun changement, baisse graduelle, baisse abrupte). Les impacts sur l’apport de sédiments et l’élévation du lit diffèrent entre les MCG et semblent reliés au statut des cours d’eau (selon qu’ils soient en état d’aggradation, de dégradation ou d’équilibre), ce qui illustre l’importance d’examiner plusieurs rivières avec différents modèles climatiques afin d’établir des tendances dans les effets des changements climatiques. Malgré le fait que le débit journalier moyen et le débit annuel moyen demeurent près de leur valeur actuelle dans les trois scénarios de MCG, des changements importants dans les taux de transport de sédiments simulés pour chaque tributaire sont observés. Ceci est dû à l’impact important de fortes crues plus fréquentes dans un climat futur de même qu’à l’arrivée plus hâtive de la crue printanière, ce qui résulte en une variabilité accrue dans les taux de transport en charge de fond. Certaines complications avec l’approche de modélisation en 1D pour représenter la géométrie complexe des rivières Saint-Maurice et Saint-François suggèrent qu’une approche bi-dimensionnelle (2D) devrait être sérieusement considérée afin de simuler de façon plus exacte la répartition des débits aux bifurcations autour des îles. La rivière Saint-François est utilisée comme étude de cas pour le modèle 2D H2D2, qui performe bien d’un point de vue hydraulique, mais qui requiert des ajustements pour être en mesure de pleinement simuler les ajustements morphologiques des cours d’eau.
Resumo:
Il est généralement admis que la vision joue un rôle prépondérant dans la formation des représentations spatiales. Qu’advient-il alors lorsqu’un individu est atteint de cécité? Dans le premier volet de cette thèse, les habiletés spatiales des personnes aveugles ont été examinées à l’aide de différentes tâches et comparées à celles de personnes voyantes effectuant les mêmes tâches avec les yeux bandés. Dans une première étude, les capacités de rotation mentale ont été évaluées à l’aide d’une épreuve d’orientation topographique tactile. Les résultats obtenus montrent que les personnes aveugles parviennent généralement à développer des capacités de rotation mentale similaires à celles de personnes voyantes et ce, malgré l’absence d’information de nature visuelle. Dans une seconde étude, nous avons utilisé différentes tâches spatiales nécessitant l’utilisation de la locomotion. Les résultats obtenus montrent que les personnes aveugles font preuve d’habiletés supérieures à celles de voyants lorsqu’elles doivent apprendre de nouveaux trajets dans un labyrinthe. Elles parviennent également à mieux reconnaître une maquette représentant un environnement exploré précédemment. Ainsi, l’absence de vision ne semble pas entraver de manière significative la formation de concepts spatiaux. Le second volet de cette thèse s’inscrit dans la lignée des études sur la plasticité cérébrale chez les personnes aveugles. Dans le cas présent, nous nous sommes intéressés à l’hippocampe, une structure profonde du lobe temporal dont le rôle au plan spatial a été établi par de nombreuses études animales ainsi que par des études cliniques chez l’humain incluant l’imagerie cérébrale. L’hippocampe joue un rôle particulièrement important dans la navigation spatiale. De plus, des changements structuraux de l’hippocampe ont été documentés en relation avec l’expérience des individus. Par exemple, l’étude de Maguire et al. (2000) a mis en évidence de telles modifications structurelles de l’hippocampe chez des chauffeurs de taxi. À l’instar de ces derniers, les personnes aveugles doivent emmagasiner de nombreuses informations au sujet de leur environnement puisqu’elles ne peuvent bénéficier de la vision pour mettre à jour les informations sur celui-ci, sur leur position dans l’espace et sur la position des objets se trouvant hors de leur portée. Nous avons montré, pour la première fois, une augmentation du volume des hippocampes chez les personnes aveugles en comparaison avec les personnes voyantes. De plus, cette augmentation de volume était positivement corrélée à la performance à une tâche d’apprentissage de trajets. Les résultats présentés dans cette thèse permettent d’appuyer les études antérieures qui soutiennent que les personnes aveugles parviennent à compenser leur déficit et à développer des habiletés spatiales comparables, voire supérieures, à celles de personnes voyantes. Ils permettent également d’apporter un éclairage nouveau sur le concept de plasticité cérébrale présent chez cette population en montrant pour la première fois un lien entre le volume de l’hippocampe et les habiletés spatiales chez les personnes aveugles.
Resumo:
Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients.
Resumo:
Des preuves archéopalynologiques directes appuient maintenant l’hypothèse d’une lente adaptation horticole durant la néolithisation amérindienne de la région de Montréal. Les sites archéologiques Hector-Trudel (BhFl-1a) de Pointe-du-Buisson et Séminaire de Saint-Sulpice (BjFj-18) dans le Vieux-Montréal ont été retenus pour élaborer une méthodologie archéopalynologique d’étude des sols archéologiques. Cela a permis de caractériser l’impact de la présence humaine sur l'environnement végétal des sites et d’identifier des indices de culture et de gestion de plantes allogènes et indigènes. Un complexe horticole de production à petite échelle de maïs (Zea mays), de tournesol (Helianthus annuus) et de petit tabac (Nicotiana rustica) et une forme de gestion des arbustes à petits fruits sont identifiés au site Hector-Trudel durant le Sylvicole moyen tardif (500 à 1000 A.D.). Ces cultigènes sont aussi identifiés au site du Séminaire pour la fin du Sylvicole supérieur ancien (1200 à 1300 A.D.), dans des proportions toutefois plus importantes, et une activité de gestion forestière au profit des arbres à noix et du tilleul d’Amérique (Tilia americana), reflet des pratiques d’entretien des champs cultivés, témoignent d’une évolution dans les comportements
Resumo:
Le réseau magnétique consiste en un ensemble de petites concentrations de flux magnétique sur la photosphère solaire. Vu sa petite échelle de taille et de flux, à la limite de détection, son comportement n'est connu que depuis récemment. Les interactions du réseau sont pourtant cruciales afin de comprendre la dynamo et l'irradiance solaires, car beaucoup de caractérisques du réseau dépendent de ces interactions. De plus, le réseau est la principale contribution magnétique surfacique à l'irradiance solaire. Les modèles existants du réseau ne tenaient jusqu'à maintenant pas compte des interactions du réseau. Nous avons tenté de combler cette lacune avec notre modèle. Nos simulations impliquent une marche aléatoire en 2D de tubes de flux magnétiques sur la photosphère solaire. Les tubes de flux sont injectés puis soumis à des règles de déplacement et d'interaction. L'injection se fait à deux échelles, respectivement la plus petite et la plus grande observables: les tubes de flux élémentaires et les taches solaires. Des processus de surface imitant ceux observés sont inclus, et consistent en l'émergence, la coalescence, l'annulation et la submergence de flux. La fragmentation des concentrations n'est présente que pour les taches, sous forme de désintégration libérant des tubes de flux. Le modèle est appliqué au cycle solaire 21 (1976-1986, le mieux documenté en termes de caractéristiques de taches solaires. Il en résulte des réponses à deux questions importantes en physique solaire. La première est: l'injection de flux magnétique à deux échelles très distinctes peut-elle conduire à une distribution de flux en loi de puissance comme on l'observe, si l'on inclut des processus de surface qui retraitent le flux? Cette question est étroitement liée à l'origine de la dynamo solaire, qui pourrait produire ladite distribution. Nous trouvons qu'on peut effectivement produire une telle distribution avec ce type d'injection et ce type de processus de surface. Cela implique que la distribution de flux observée ne peut servir à déterminer quel type de dynamo opère dans le Soleil. La deuxième question à laquelle nous avons apporté un élément de réponse est celle à savoir combien de temps il faut au réseau pour retrouver son état d'activité de base. Cet état a été observé lors du minimum de Maunder en 1645-1715 et touche de près la question de l'influence de l'activité solaire sur le climat terrestre. Le récent minimum d'activité est considéré par certains comme ayant atteint cet état. Nous trouvons plutôt que ça n'a pas été le cas. En effet, le temps de relaxation du réseau que nous avons calculé est supérieur au temps écoulé entre la fin du dernier cycle solaire d'activité et celui de l'amorce du présent cycle.
Resumo:
Les cas d’entreprises touchées par des scandales financiers, environnementaux ou concernant des conditions de travail abusives imposées à leur main-d’œuvre, n’ont cessé de jalonner l’actualité ces vingt dernières années. La multiplication des comportements à l’origine de ces scandales s’explique par l’environnement moins contraignant, que leur ont offert les politiques de privatisation, dérégulation et libéralisation, amorcées à partir des années 1980. Le développement de la notion de responsabilité sociale des entreprises à partir des années 1980, en réaction à ces excès, incarne l'idée que si une entreprise doit certes faire des profits et les pérenniser elle se doit de les réaliser en favorisant les comportements responsables, éthiques et transparents avec toutes ses parties prenantes. Nous analysons dans cette thèse le processus par lequel, face à des dysfonctionnements et abus, touchant les conditions de travail de leur main d’œuvre ou leur gouvernance, des entreprises peuvent être amenées, ou non, à questionner et modifier leurs pratiques. Nous avons axé notre étude de cas sur deux entreprises aux trajectoires diamétralement opposées. La première entreprise, issue du secteur de la fabrication de vêtements et dont la crise concernait des atteintes aux droits des travailleurs, a surmonté la crise en réformant son modèle de production. La seconde entreprise, située dans le secteur des technologies de l'information et de la communication, a fait face à une crise liée à sa gouvernance d’entreprise, multiplié les dysfonctionnements pendant dix années de crises et finalement déclaré faillite en janvier 2009. Les évolutions théoriques du courant néo-institutionnel ces dernières années, permettent d’éclairer le processus par lequel de nouvelles normes émergent et se diffusent, en soulignant le rôle de différents acteurs, qui pour les uns, définissent de nouvelles normes et pour d’autres se mobilisent en vue de les diffuser. Afin d’augmenter leur efficacité à l’échelle mondiale, il apparaît que ces acteurs agissent le plus souvent en réseaux, parfois concurrents. L’étude du cas de cette compagnie du secteur de la confection de vêtement nous a permis d’aborder le domaine lié aux conditions de travail de travailleurs œuvrant au sein de chaînes de production délocalisées dans des pays aux lois sociales absentes ou inefficaces. Nous avons analysé le cheminement par lequel cette entreprise fut amenée à considérer, avec plus de rigueur, la dimension éthique dans sa chaîne de production. L’entreprise, en passant par différentes étapes prenant la forme d’un processus d’apprentissage organisationnel, a réussi à surmonter la crise en réformant ses pratiques. Il est apparu que ce processus ne fut pas spontané et qu’il fut réalisé suite aux rôles joués par deux types d’acteurs. Premièrement, par la mobilisation incessante des mouvements de justice globale afin que l’entreprise réforme ses pratiques. Et deuxièmement, par le cadre normatif et le lieu de dialogue entre les différentes parties prenantes, fournis par un organisme privé source de normes. C’est fondamentalement le risque de perdre son accréditation à la cet organisme qui a poussé l’entreprise à engager des réformes. L’entreprise est parvenue à surmonter la crise, certes en adoptant et en respectant les normes définies par cette organisation mais fondamentalement en modifiant sa culture d'entreprise. Le leadership du CEO et du CFO a en effet permis la création d'une culture d'entreprise favorisant la remise en question, le dialogue et une plus grande prise en considération des parties prenantes, même si la gestion locale ne va pas sans poser parfois des difficultés de mise en œuvre. Concernant le domaine de la gouvernance d’entreprise, nous mettons en évidence, à travers l’étude des facteurs ayant mené au déclin et à la faillite d’une entreprise phare du secteur des technologies de l’information et de la communication, les limites des normes en la matière comme outil de bonne gouvernance. La légalité de la gestion comptable et la conformité de l’entreprise aux normes de gouvernance n'ont pas empêché l’apparition et la multiplication de dysfonctionnements et abus stratégiques et éthiques. Incapable de se servir des multiples crises auxquelles elle a fait face pour se remettre en question et engager un apprentissage organisationnel profond, l'entreprise s'est focalisée de manière obsessionnelle sur la rentabilité à court terme et la recherche d'un titre boursier élevé. La direction et le conseil d'administration ont manqué de leadership afin de créer une culture d'entreprise alliant innovation technologique et communication honnête et transparente avec les parties prenantes. Alors que l'étude consacrée à l’entreprise du secteur de la confection de vêtement illustre le cas d'une entreprise qui a su, par le biais d'un changement stratégique, relever les défis que lui imposait son environnement, l'étude des quinze dernières années de la compagnie issue du secteur des technologies de l’information et de la communication témoigne de la situation inverse. Il apparaît sur base de ces deux cas que si une gouvernance favorisant l'éthique et la transparence envers les parties prenantes nécessite la création d'une culture d'entreprise valorisant ces éléments, elle doit impérativement soutenir et être associée à une stratégie adéquate afin que l'entreprise puisse pérenniser ses activités.
Resumo:
Cette thèse est divisée en trois chapitres. Le premier explique comment utiliser la méthode «level-set» de manière rigoureuse pour faire la simulation de feux de forêt en utilisant comme modèle physique pour la propagation le modèle de l'ellipse de Richards. Le second présente un nouveau schéma semi-implicite avec une preuve de convergence pour la solution d'une équation de type Hamilton-Jacobi anisotrope. L'avantage principal de cette méthode est qu'elle permet de réutiliser des solutions à des problèmes «proches» pour accélérer le calcul. Une autre application de ce schéma est l'homogénéisation. Le troisième chapitre montre comment utiliser les méthodes numériques des deux premiers chapitres pour étudier l'influence de variations à petites échelles dans la vitesse du vent sur la propagation d'un feu de forêt à l'aide de la théorie de l'homogénéisation.
Resumo:
Gabion faced re.taining walls are essentially semi rigid structures that can generally accommodate large lateral and vertical movements without excessive structural distress. Because of this inherent feature, they offer technical and economical advantage over the conventional concrete gravity retaining walls. Although they can be constructed either as gravity type or reinforced soil type, this work mainly deals with gabion faced reinforced earth walls as they are more suitable to larger heights. The main focus of the present investigation was the development of a viable plane strain two dimensional non linear finite element analysis code which can predict the stress - strain behaviour of gabion faced retaining walls - both gravity type and reinforced soil type. The gabion facing, backfill soil, In - situ soil and foundation soil were modelled using 20 four noded isoparametric quadrilateral elements. The confinement provided by the gabion boxes was converted into an induced apparent cohesion as per the membrane correction theory proposed by Henkel and Gilbert (1952). The mesh reinforcement was modelled using 20 two noded linear truss elements. The interactions between the soil and the mesh reinforcement as well as the facing and backfill were modelled using 20 four noded zero thickness line interface elements (Desai et al., 1974) by incorporating the nonlinear hyperbolic formulation for the tangential shear stiffness. The well known hyperbolic formulation by Ouncan and Chang (1970) was used for modelling the non - linearity of the soil matrix. The failure of soil matrix, gabion facing and the interfaces were modelled using Mohr - Coulomb failure criterion. The construction stages were also modelled.Experimental investigations were conducted on small scale model walls (both in field as well as in laboratory) to suggest an alternative fill material for the gabion faced retaining walls. The same were also used to validate the finite element programme developed as a part of the study. The studies were conducted using different types of gabion fill materials. The variation was achieved by placing coarse aggregate and quarry dust in different proportions as layers one above the other or they were mixed together in the required proportions. The deformation of the wall face was measured and the behaviour of the walls with the variation of fill materials was analysed. It was seen that 25% of the fill material in gabions can be replaced by a soft material (any locally available material) without affecting the deformation behaviour to large extents. In circumstances where deformation can be allowed to some extents, even up to 50% replacement with soft material can be possible.The developed finite element code was validated using experimental test results and other published results. Encouraged by the close comparison between the theory and experiments, an extensive and systematic parametric study was conducted, in order to gain a closer understanding of the behaviour of the system. Geometric parameters as well as material parameters were varied to understand their effect on the behaviour of the walls. The final phase of the study consisted of developing a simplified method for the design of gabion faced retaining walls. The design was based on the limit state method considering both the stability and deformation criteria. The design parameters were selected for the system and converted to dimensionless parameters. Thus the procedure for fixing the dimensions of the wall was simplified by eliminating the conventional trial and error procedure. Handy design charts were developed which would prove as a hands - on - tool to the design engineers at site. Economic studies were also conducted to prove the cost effectiveness of the structures with respect to the conventional RCC gravity walls and cost prediction models and cost breakdown ratios were proposed. The studies as a whole are expected to contribute substantially to understand the actual behaviour of gabion faced retaining wall systems with particular reference to the lateral deformations.
Resumo:
This thesis Entitled entrepreneurship and motivation in small business sector of kerala -A study of rubber products manufacturing industry.Rubber-based industry in Kerala was established only in the first half of the 20th century.the number of licensed manufacturers in the State has increased substantially over the years, particularly in the post- independence period. 54 rubber manufacturing units in 1965-66, the number of licensed rubber-based industrial units has increased to 1300 units in 2001-02. In 2001-02 Kerala occupied the primary position in the number of rubber goods manufacturers in the country.As per the latest report of the Third All India Census of Small Scale Industries 2001-02, Kerala has the third largest number of registered small scale units in the country next after Tamil Nadu and Utter Pradesh.This study of entrepreneurship in the small-scale rubber goods manufacturing industry in Kerala compares a cross section of successful and unsuccessful entrepreneurs with respect to socio-economic characteristics and motivational dynamics. Based on a sample survey of 120 entrepreneurs of Kottayam and Ernakulam districts successful and unsuccessful entrepreneurs were selected using multiple criteria. The study provides guidelines for the development of entrepreneurship in Kerala.The results on the socio-economic survey support the hypothesis that the successful entrepreneurs will differ from unsuccessful entrepreneurs with respect to education, social contacts, initial investment, sales turnover, profits, capital employed, personal income, and number of employees.Successful entrepreneurs were found to be self~starters. Successful entrepreneurs adopted a lot more technological changes than unsuccessful entrepreneurs. Successful entrepreneurs were more innovative — the percent of successful entrepreneurs and unsuccessful entrepreneurs reporting innovations in business were 31.50 and 8.50 percent respectively.
Resumo:
Industries constitute the main spring of development. Without industrial development no country could reach a stage in which a decent living for its citizens would be achieved. Increasing production to meet the basic needs of society augmented scientific invention and machine oriented industrial order.Environmental pollution ls a burning global issue. It is more serious and dangerous than terrorism. Started with the discovery of fire and development of civilization. Pollution went unnoticed throughout the centuries of human growth until its adverse effects on human environment become explicit.National concern tor environment started in our country only atter the cause of protection of environment received global attention. At present legal control ot industrial pollution is in a scattered framework of piece meal processes with overlapping provisions and authorities.Environmental protection- should be an item not only in the concurrent list of schedule 7 to the Constitution but also in the list of matters entrusted to the panchayati institutions in the Schedule 11. It is heartening to note that so far as municipalities are concerned the Constitution of India lives up to the expectation. In the wake of New Industrial Policy based on liberalisation a long list of small scale industries fall outside the purview of environmental clearance. The Indian concept of environmental im»act assessment introduced under the Environment Act by notification excludes the entire gamut of small scale industries and r.elates only to scheduled industries covered by the notifica~ion. Most of them are subjected to ETA only it the investment goes above ~.50 crores. This provision dilutes the impact assessment considerably A mandatory impact assessment with public partiCipation and with provision for a review by specialized environmental courts will eliminate the possible evils of this judicial passiveness.
Resumo:
The fishing industry the world over is passing through a critical situation.The landings of marine fishes seemed to have reached saturation in major fishing areas of the world.As a general rule fisheries employing fishing gear and techniques used by small scale and artisanal fishermen either from shore or from onboard small fishing craft come under small-scale fisheries.This study on gill nets of Kerala, the fishing method depended upon by maximum fishermen of the state focuses on the importance of this selective and low energy fishing method in the marine fishing sector of the state.The study opens with the conceptual framework by briefly reviewing the crisis in the marine fisheries sector. Maximum fishermen depend upon gill net, which is, an important selective and low energy fishing gear. A review of relevant literature on aspects such as material, selectivity and techno-economic efficiency together with scope and main objectives of the study form the major part of the compass of the introductory chapter.This survey provided the inputs for selection of centres. The chapter presents the basis for selection of sample centres, sample units and methodology for field and experimental study.The subject matter of the fourth chapter is a basic study on gear aterials. The weathering resistance, which is an important criterion to assess the material performance, was studied for polyamide monofilament in comparison to polyamide multifilament and polyethylene twisted monofilament.The study provides supporting evidence of oxidation and characteristic C-O stretching in polyethylene and cyclic lactam .formation and presence of OH in polyamide.The study indicates that small mesh gill netting can be encouraged as a selective fishing method in the inshore waters with restrained use of 30 and 32 mm mesh sizes. The economic efficiency was assessed using standard indices such as rate of return, internal rate of return, pay back period, fishery income, energy efficiency and factor productivity. The effect of size and cost of capital and cost of production on the economics of operation is also discussed in this chapter. It was observed that level of technology did not have direct effect on economic performance.
Resumo:
There is no baseline data available at present on the nature of various diseases that occur in a orchid population, under cultivation, in any commercial orchid farm maintained by small scale entrepreneurs who invest considerable amount of money, effort and time. The available data on type of disease symptoms, causative agent, , nature of pathogens, as to bacteria or ftmgi or any other biological agents, and their source, appropriate and effective control measures could not be devised, for large scale implementation and effective management, although arbitrary methods are being practiced by very few farms. Further influence of seasonal variations and environmental factors on disease outbreak is also not scientifically documented and statistically verified as to their authenticity. In this context, the primary objective of the present study was to create a data bank on the following aspects 1. Occurrence of different disease symptoms in Dendrobium hybrid over a period of one year covering all seasons 2. Variations in the environmental parameters at the orchid farms 3. Variations in the characteristics of water used for irrigation in the selected orchid farm 4. Microbial population associated with the various disease symptoms 5. Isolation and identification of bacteria isolated from diseased plants 6. Statistical treatment of the quantitative data and evolving statistical model
Resumo:
Use of inert supports have been recommended for SSF in on ar to overcome its inherent problems and efforts are being made to search for newer and better materials to act as inert solid supports lidoo et al, 1982; Zhu et al, 1994).In the present study an attempt is made to produce L-glutaminase, which is industrially and therapeutically impo rtant, from marine bacteria under solid state fermentation using natura.l. inert and mixed substrates with a view to develop an ideal bioprocess for its large scale production.
Resumo:
The preceding discussion and review of literature show that studies on gear selectivity have received great attention, while gear efficiency studies do not seem to have received equal consideration. In temperate waters, fishing industry is well organised and relatively large and well equipped vessels and gear are used for commercial fishing and the number of species are less; whereas in tropics particularly in India, small scale fishery dominates the scene and the fishery is multispecies operated upon by nmltigear. Therefore many of the problems faced in India may not exist in developed countries. Perhaps this would be the reason for the paucity of literature on the problems in estimation of relative efficiency. Much work has been carried out in estimating relative efficiency (Pycha, 1962; Pope, 1963; Gulland, 1967; Dickson, 1971 and Collins, 1979). The main subject of interest in the present thesis is an investigation into the problems in the comparison of fishing gears. especially in using classical test procedures with special reference to the prevailing fishing practices (that is. with reference to the catch data generated by the existing system). This has been taken up with a view to standardizing an approach for comparing the efficiency of fishing gear. Besides this, the implications of the terms ‘gear efficiency‘ and ‘gear selectivity‘ have been examined and based on the commonly used selectivity model (Holt, 1963), estimation of the ratio of fishing power of two gear has been considered. An attempt to determine the size of fish for which a gear is most efficient.has also been made. The work has been presented in eight chapters