980 resultados para Uniformly Convex
Resumo:
Dans cette thèse, nous étudions quelques problèmes fondamentaux en mathématiques financières et actuarielles, ainsi que leurs applications. Cette thèse est constituée de trois contributions portant principalement sur la théorie de la mesure de risques, le problème de l’allocation du capital et la théorie des fluctuations. Dans le chapitre 2, nous construisons de nouvelles mesures de risque cohérentes et étudions l’allocation de capital dans le cadre de la théorie des risques collectifs. Pour ce faire, nous introduisons la famille des "mesures de risque entropique cumulatifs" (Cumulative Entropic Risk Measures). Le chapitre 3 étudie le problème du portefeuille optimal pour le Entropic Value at Risk dans le cas où les rendements sont modélisés par un processus de diffusion à sauts (Jump-Diffusion). Dans le chapitre 4, nous généralisons la notion de "statistiques naturelles de risque" (natural risk statistics) au cadre multivarié. Cette extension non-triviale produit des mesures de risque multivariées construites à partir des données financiéres et de données d’assurance. Le chapitre 5 introduit les concepts de "drawdown" et de la "vitesse d’épuisement" (speed of depletion) dans la théorie de la ruine. Nous étudions ces concepts pour des modeles de risque décrits par une famille de processus de Lévy spectrallement négatifs.
Resumo:
Cette thèse est divisée en trois parties. Une première section présente les résultats de l'étude de la formation de polarons magnétiques liés (BMP) dans le ferroaimant EuB6 par diffusion de neutrons à petits angles (SANS). La nature magnétique du système ferromagnétique est observée sous une température critique de 15K. La signature des BMP n'apparaît pas dans la diffusion de neutrons, mais ces mesures permettent de confirmer une limite inférieure de 100\AA à la longueur de cohérence des BMP (xi_{Lower}). Dans un second temps, l'étude du LaRhSi3, un supraconducteur sans symétrie d'inversion, par muSR et ZF-muSR nous permet de sonder le comportement magnétique du système dans la phase supraconductrice. Aucun champ magnétique interne n'a été détecté en ZF-muSR sous la température critique (T_c = 2.2K). Cela indique que la phase supraconductrice ne porte pas de moment cinétique intrinsèque. L'analyse du spectre d'asymétrie sous l'application d'un champ magnétique externe nous apprend que le système est faiblement type II par l'apparition de la signature de domaines magnétiques typique d'un réseau de vortex entre H_{c1}(0) et H_{c2}(0), respectivement de 80+/- 5 et 169.0 +/- 0.5 G. Finalement, la troisième section porte sur l'étude du champ magnétique interne dans l'antiferroaimant organique NIT-2Py. L'observation d'une dépendance en température des champs magnétiques internes aux sites d'implantation muonique par ZF-muSR confirme la présence d'une interaction à longue portée entre les moments cinétiques moléculaires. Ces valeurs de champs internes, comparées aux calculs basés sur la densité de spins obtenue par calculs de la théorie de la fonctionnelle de la densité, indiquent que la moitié des molécules se dimérisent et ne contribuent pas à l'ordre antiferromagnétique. La fraction des molécules contribuant à l'ordre antiferromagnétique sous la température critique (T_c = 1.33 +/- 0.01K) forme des chaines uniformément polarisées selon l'axe (1 0 -2). Ces chaines interagissent antiferromagnétiquement entre elles le long de l'axe (0 1 0) et ferromagnétiquement entre les plan [-1 0 2].
Resumo:
De par sa présence dans tous les vaisseaux sanguins, l'endothélium joue un rôle clef dans le processus d’hémostase, tant par sa libération de facteurs anticoagulants que par ses changements protéiques qui permettent à l’organisme de déclencher la réparation tissulaire. La fonction anticoagulante de l’endothélium peut être mise en défaut en cas d’atteinte de son intégrité, entrainant la formation de thrombus, le rejet précoce de greffes ou encore l’induction de l’athérosclérose. L’intégrité de l’endothélium est donc capitale pour la prévention de nombreuses maladies cardiovasculaires. Chez l’adulte, les cellules endothéliales (CE), normalement quiescentes, sont rapidement activées en cas d’hypoxie ou d’inflammation, leur permettant ainsi d’amorcer le processus angiogénique comme suit: Tout d’abord, l’induction de l’hyperperméabilité vasculaire permet l’extravasation des protéines plasmatiques. Ensuite, la dégradation de la lame basale par des métalloprotéases permet aux CE de se détacher, de proliférer, de migrer et de s’organiser pour former l’ébauche du futur vaisseau. La dernière étape consiste en la maturation du vaisseau, c’est-à-dire son recouvrement par des cellules murales, telles que les cellules musculaires lisses et les péricytes. Ces processus sont régulés par de nombreux facteurs angiogéniques tels que les membres de la famille Notch, du vascular endothelial growth factor (VEGF), du fibroblast growth factor (FGF), des angiopoïétines, et des matrix metalloproteases (MMP). L’angiogenèse pathologique, soit une insuffisance ou un excès de vascularisation, est impliquée dans les blessures chroniques, les accidents cardiovasculaires, les pathologies coronariennes artérielles, les pathologies tumorales, l’arthrite rhumatoïde, la rétinopathie diabétique, l’athérosclérose, le psoriasis et l’asthme. Ces pathologies sont souvent issues d’une dérégulation de l’activité endothéliale, fréquemment observée conjointement à l’expression continue de molécules d’adhésion leucocytaires, à l’augmentation de la perméabilité vasculaire, et aux anomalies de la vasoréactivité. L’activation non-contrôlée de l’endothélium entraîne ainsi une inflammation chronique et la formation de structures vasculaires anarchiques. Les premiers leucocytes à répondre à l’appel inflammatoire sont les neutrophiles. Equippées d’une panoplie de produits antibactériens puissants mais aussi nocifs pour les tissus qui les entourent, ces cellules polylobées participent à chaque étape du processus inflammatoire, depuis l’induction de l’hyperperméabilité vasculaire jusqu’à la résolution. En effet, grâce à leurs récepteurs, les neutrophiles détectent et interprètent les signaux biochimiques présents dans la circulation et à la surface de l’endothélium, et libèrent aussi leurs propres médiateurs tels le VEGF, les MMP, et l’interleukine-8 (IL-8), dont les effets sont à la fois paracrines et autocrines. Existent-ils d’autres modulateurs typiques de la fonction endothéliale capables d’influencer le comportement des neutrophiles? En effet, notre laboratoire a démontré que chez l’humain, une stimulation directe aux angiopoïétines incitait les neutrophiles à adhérer aux CE, à migrer, à synthétiser et à relâcher l’IL-8, voire même à vivre plus longtemps. La présence du récepteur des angiopoïétines, Tie2, à la surface des neutrophiles laisse présager que la famille possèderait d’autres fonctions leucocytaires encore non-identifiées. Par ailleurs, dans un modèle classique de l’angiogenèse in vivo (matrigel), nous avons observé que sous l’effet du FGF1 et 2, les ébauches des nouveaux vaisseaux étaient parfois accompagnées d’une infiltration de cellules granulocytaires. Ainsi, en partant de ces observations, l’objectif de nos études (présentées ci-après) était d’approfondir nos connaissances sur la relation entre neutrophiles et facteurs angiogéniques, notamment les FGF et les angiopoïétines. Par tests in vitro, nous avons confirmé que les neutrophiles humains exprimaient plusieurs récepteurs du FGF (FGFR1-4) d’une façon hétérogène, et qu’ils migraient vers un gradient des ligands FGF1 et 2. Par ailleurs, nous nous sommes intéressés aux voies de signalisation inflammatoires activées par les ligands FGF1, FGF2, Ang1 et Ang2. Grâce à une stratégie génique ciblant 84 gènes inflammatoires, nous avons identifié plusieurs cibles d’intérêt touchées par Ang1, dont certains membres de la famille de l’IL-1, alors qu’aucun des gènes testés n’avait changé de façon significative sous l’effet des FGF ou d’Ang2. Suite à des cinétiques approfondies, nous avons démontré qu’Ang1 stimulait la transcription de l’ARN messager de l’IL-1β, et augmentait simultanément la quantité de protéine immature (pro-IL-1β; inactive) et clivée (IL-1β « mature »; active). En parallèle, Ang1 augmentait la sécrétion de l’antagoniste naturel de l’IL-1β, l’IL-1RA, sans pour autant stimuler la relâche de l’IL-1β. A l’instar des endotoxines bactériennes dont les effets liés à l’IL-1 dépendaient de la kinase p38, ceux d’Ang1 découlaient presque entièrement des voies de signalisation du p42/44.
Resumo:
Le nombre important de véhicules sur le réseau routier peut entraîner des problèmes d'encombrement et de sécurité. Les usagers des réseaux routiers qui nous intéressent sont les camionneurs qui transportent des marchandises, pouvant rouler avec des véhicules non conformes ou emprunter des routes interdites pour gagner du temps. Le transport de matières dangereuses est réglementé et certains lieux, surtout les ponts et les tunnels, leur sont interdits d'accès. Pour aider à faire appliquer les lois en vigueur, il existe un système de contrôles routiers composé de structures fixes et de patrouilles mobiles. Le déploiement stratégique de ces ressources de contrôle mise sur la connaissance du comportement des camionneurs que nous allons étudier à travers l'analyse de leurs choix de routes. Un problème de choix de routes peut se modéliser en utilisant la théorie des choix discrets, elle-même fondée sur la théorie de l'utilité aléatoire. Traiter ce type de problème avec cette théorie est complexe. Les modèles que nous utiliserons sont tels, que nous serons amenés à faire face à des problèmes de corrélation, puisque plusieurs routes partagent probablement des arcs. De plus, puisque nous travaillons sur le réseau routier du Québec, le choix de routes peut se faire parmi un ensemble de routes dont le nombre est potentiellement infini si on considère celles ayant des boucles. Enfin, l'étude des choix faits par un humain n'est pas triviale. Avec l'aide du modèle de choix de routes retenu, nous pourrons calculer une expression de la probabilité qu'une route soit prise par le camionneur. Nous avons abordé cette étude du comportement en commençant par un travail de description des données collectées. Le questionnaire utilisé par les contrôleurs permet de collecter des données concernant les camionneurs, leurs véhicules et le lieu du contrôle. La description des données observées est une étape essentielle, car elle permet de présenter clairement à un analyste potentiel ce qui est accessible pour étudier les comportements des camionneurs. Les données observées lors d'un contrôle constitueront ce que nous appellerons une observation. Avec les attributs du réseau, il sera possible de modéliser le réseau routier du Québec. Une sélection de certains attributs permettra de spécifier la fonction d'utilité et par conséquent la fonction permettant de calculer les probabilités de choix de routes par un camionneur. Il devient alors possible d'étudier un comportement en se basant sur des observations. Celles provenant du terrain ne nous donnent pas suffisamment d'information actuellement et même en spécifiant bien un modèle, l'estimation des paramètres n'est pas possible. Cette dernière est basée sur la méthode du maximum de vraisemblance. Nous avons l'outil, mais il nous manque la matière première que sont les observations, pour continuer l'étude. L'idée est de poursuivre avec des observations de synthèse. Nous ferons des estimations avec des observations complètes puis, pour se rapprocher des conditions réelles, nous continuerons avec des observations partielles. Ceci constitue d'ailleurs un défi majeur. Nous proposons pour ces dernières, de nous servir des résultats des travaux de (Bierlaire et Frejinger, 2008) en les combinant avec ceux de (Fosgerau, Frejinger et Karlström, 2013). Bien qu'elles soient de nature synthétiques, les observations que nous utilisons nous mèneront à des résultats tels, que nous serons en mesure de fournir une proposition concrète qui pourrait aider à optimiser les décisions des responsables des contrôles routiers. En effet, nous avons réussi à estimer, sur le réseau réel du Québec, avec un seuil de signification de 0,05 les valeurs des paramètres d'un modèle de choix de routes discrets, même lorsque les observations sont partielles. Ces résultats donneront lieu à des recommandations sur les changements à faire dans le questionnaire permettant de collecter des données.
Resumo:
Les algorithmes d'apprentissage profond forment un nouvel ensemble de méthodes puissantes pour l'apprentissage automatique. L'idée est de combiner des couches de facteurs latents en hierarchies. Cela requiert souvent un coût computationel plus elevé et augmente aussi le nombre de paramètres du modèle. Ainsi, l'utilisation de ces méthodes sur des problèmes à plus grande échelle demande de réduire leur coût et aussi d'améliorer leur régularisation et leur optimization. Cette thèse adresse cette question sur ces trois perspectives. Nous étudions tout d'abord le problème de réduire le coût de certains algorithmes profonds. Nous proposons deux méthodes pour entrainer des machines de Boltzmann restreintes et des auto-encodeurs débruitants sur des distributions sparses à haute dimension. Ceci est important pour l'application de ces algorithmes pour le traitement de langues naturelles. Ces deux méthodes (Dauphin et al., 2011; Dauphin and Bengio, 2013) utilisent l'échantillonage par importance pour échantilloner l'objectif de ces modèles. Nous observons que cela réduit significativement le temps d'entrainement. L'accéleration atteint 2 ordres de magnitude sur plusieurs bancs d'essai. Deuxièmement, nous introduisont un puissant régularisateur pour les méthodes profondes. Les résultats expérimentaux démontrent qu'un bon régularisateur est crucial pour obtenir de bonnes performances avec des gros réseaux (Hinton et al., 2012). Dans Rifai et al. (2011), nous proposons un nouveau régularisateur qui combine l'apprentissage non-supervisé et la propagation de tangente (Simard et al., 1992). Cette méthode exploite des principes géometriques et permit au moment de la publication d'atteindre des résultats à l'état de l'art. Finalement, nous considérons le problème d'optimiser des surfaces non-convexes à haute dimensionalité comme celle des réseaux de neurones. Tradionellement, l'abondance de minimum locaux était considéré comme la principale difficulté dans ces problèmes. Dans Dauphin et al. (2014a) nous argumentons à partir de résultats en statistique physique, de la théorie des matrices aléatoires, de la théorie des réseaux de neurones et à partir de résultats expérimentaux qu'une difficulté plus profonde provient de la prolifération de points-selle. Dans ce papier nous proposons aussi une nouvelle méthode pour l'optimisation non-convexe.
Resumo:
Cette thèse concerne le problème de trouver une notion naturelle de «courbure scalaire» en géométrie kählérienne généralisée. L'approche utilisée consiste à calculer l'application moment pour l'action du groupe des difféomorphismes hamiltoniens sur l'espace des structures kählériennes généralisées de type symplectique. En effet, il est bien connu que l'application moment pour la restriction de cette action aux structures kählériennes s'identifie à la courbure scalaire riemannienne. On se limite à une certaine classe de structure kählériennes généralisées sur les variétés toriques notée $DGK_{\omega}^{\mathbb{T}}(M)$ que l'on reconnaît comme étant classifiées par la donnée d'une matrice antisymétrique $C$ et d'une fonction réelle strictement convexe $\tau$ (ayant un comportement adéquat au voisinage de la frontière du polytope moment). Ce point de vue rend évident le fait que toute structure kählérienne torique peut être déformée en un élément non kählérien de $DGK_{\omega}^{\mathbb{T}}(M)$, et on note que cette déformation à lieu le long d'une des classes que R. Goto a démontré comme étant libre d'obstruction. On identifie des conditions suffisantes sur une paire $(\tau,C)$ pour qu'elle donne lieu à un élément de $DGK_{\omega}^{\mathbb{T}}(M)$ et on montre qu'en dimension 4, ces conditions sont également nécessaires. Suivant l'adage «l'application moment est la courbure» mentionné ci-haut, des formules pour des notions de «courbure scalaire hermitienne généralisée» et de «courbure scalaire riemannienne généralisée» (en dimension 4) sont obtenues en termes de la fonction $\tau$. Enfin, une expression de la courbure scalaire riemannienne généralisée en termes de la structure bihermitienne sous-jacente est dégagée en dimension 4. Lorsque comparée avec le résultat des physiciens Coimbra et al., notre formule suggère un choix canonique pour le dilaton de leur théorie.
Resumo:
Certaines études ont démontrés que les connexions entre l’aire prémotrice ventrale (PMv) et la région de la main du cortex moteur primaire (M1) sont distribuées non-uniformément, ciblant des sous-régions spécifiques dans M1. Dans la présente étude nous avons voulu développer ces résultats en étudiant la distribution au sein de M1 des projections corticales issues de PMv, l’aire prémotrice dorsale (PMd), l’aire motrice supplémentaire (SMA) et les aires pariétales 1, 2 et 5. Pour se faire, nous avons combiné des approches électrophysiologiques et anatomiques chez trois singes naïfs du Nouveau Monde (Cebus apella) pour examiner l’organisation et la spécificité topographique des projections corticales dans M1. Nos résultats indiquent que quatre sous-régions à l’intérieur de la région dédiée à la main reçoivent des inputs prédominants de différentes aires sensorimotrices. Ces résultats suggèrent que des sous-régions de M1 puissent avoir des fonctions spécifiques pour le contrôle moteur de la main et des doigts.
Resumo:
In this article it is proved that the stationary Markov sequences generated by minification models are ergodic and uniformly mixing. These results are used to establish the optimal properties of estimators for the parameters in the model. The problem of estimating the parameters in the exponential minification model is discussed in detail.
Resumo:
The present study describes the preparation of Vinyl acetate-Butyl acrylate copolymer lattices of varying compositions and solid contents by semicontinuous emulsion polymerization method. This copolymer lattices were used as binder to develop a new surface coating formulation. The properties of this surface coating were improved by using nano TiO2 colloidal sol as a pigment. Antimicrobial activity of surface coatings was improved by the addition of carboxymethyl chitosan as biocide. Uniformly dispersed tyre crumb was used to give a mat finish to the coating. The mechanical properties adhesive properties, thermal properties etc. of the coatings are presented in thesis.
Resumo:
Nanocomposites based on natural rubber and nano-sized nickelwere synthesized by incorporating nickel nanoparticles in a natural rubber matrix for various loadings of the filler. Structural, morphological, magnetic and mechanical properties of the compositeswere evaluated along with a detailed study of dielectric properties. Itwas found that nickel particleswere uniformly distributed in the matrix without agglomeration resulting in a magnetic nanocomposite. The elastic properties showed an improvement with increase in filler content but breaking stress and breaking strain were found to decrease. Dielectric permittivity was found to decrease with increase in frequency, and found to increase with increase in nickel loading. The decrease in permittivity with temperature is attributed to the high volume expansivity of rubber at elevated temperatures. Dielectric loss of blank rubber as well as the composites was found to increase with temperature.
Resumo:
New mathematical methods to analytically investigate linear acoustic radiation and scattering from cylindrical bodies and transducer arrays are presented. Three problems of interest involving cylinders in an infinite fluid are studied. In all the three problems, the Helmholtz equation is used to model propagation through the fluid and the beam patterns of arrays of transducers are studied. In the first problem, a method is presented to determine the omni-directional and directional far-field pressures radiated by a cylindrical transducer array in an infinite rigid cylindrical baffle. The solution to the Helmholtz equation and the displacement continuity condition at the interface between the array and the surrounding water are used to determine the pressure. The displacement of the surface of each transducer is in the direction of the normal to the array and is assumed to be uniform. Expressions are derived for the pressure radiated by a sector of the array vibrating in-phase, the entire array vibrating in-phase, and a sector of the array phase-shaded to simulate radiation from a rectangular piston. It is shown that the uniform displacement required for generating a source level of 220 dB ref. μPa @ 1m that is omni directional in the azimuthal plane is in the order of 1 micron for typical arrays. Numerical results are presented to show that there is only a small difference between the on-axis pressures radiated by phased cylindrical arrays and planar arrays. The problem is of interest because cylindrical arrays of projectors are often used to search for underwater objects. In the second problem, the errors, when using data-independent, classical, energy and split beam correlation methods, in finding the direction of arrival (DOA) of a plane acoustic wave, caused by the presence of a solid circular elastic cylindrical stiffener near a linear array of hydrophones, are investigated. Scattering from the effectively infinite cylinder is modeled using the exact axisymmetric equations of motion and the total pressures at the hydrophone locations are computed. The effect of the radius of the cylinder, a, the distance between the cylinder and the array, b, the number of hydrophones in the array, 2H, and the angle of incidence of the wave, α, on the error in finding the DOA are illustrated using numerical results. For an array that is about 30 times the wavelength and for small angles of incidence (α<10), the error in finding the DOA using the energy method is less than that using the split beam correlation method with beam steered to α; and in some cases, the error increases when b increases; and the errors in finding the DOA using the energy method and the split beam correlation method with beam steered to α vary approximately as a7 / 4 . The problem is of interest because elastic stiffeners – in nearly acoustically transparent sonar domes that are used to protect arrays of transducers – scatter waves that are incident on it and cause an error in the estimated direction of arrival of the wave. In the third problem, a high-frequency ray-acoustics method is presented and used to determine the interior pressure field when a plane wave is normally incident on a fluid cylinder embedded in another infinite fluid. The pressure field is determined by using geometrical and physical acoustics. The interior pressure is expressed as the sum of the pressures due to all rays that pass through a point. Numerical results are presented for ka = 20 to 100 where k is the acoustic wavenumber of the exterior fluid and a is the radius of the cylinder. The results are in good agreement with those obtained using field theory. The directional responses, to the plane wave, of sectors of a circular array of uniformly distributed hydrophones in the embedded cylinder are then computed. The sectors are used to simulate linear arrays with uniformly distributed normals by using delays. The directional responses are compared with the output from an array in an infinite homogenous fluid. These outputs are of interest as they are used to determine the direction of arrival of the plane wave. Numerical results are presented for a circular array with 32 hydrophones and 12 hydrophones in each sector. The problem is of interest because arrays of hydrophones are housed inside sonar domes and acoustic plane waves from distant sources are scattered by the dome filled with fresh water and cause deterioration in the performance of the array.
Resumo:
This work aims to study the variation in subduction zone geometry along and across the arc and the fault pattern within the subducting plate. Depth of penetration as well as the dip of the Benioff zone varies considerably along the arc which corresponds to the curvature of the fold- thrust belt which varies from concave to convex in different sectors of the arc. The entire arc is divided into 27 segments and depth sections thus prepared are utilized to investigate the average dip of the Benioff zone in the different parts of the entire arc, penetration depth of the subducting lithosphere, the subduction zone geometry underlying the trench, the arctrench gap, etc.The study also describes how different seismogenic sources are identified in the region, estimation of moment release rate and deformation pattern. The region is divided into broad seismogenic belts. Based on these previous studies and seismicity Pattern, we identified several broad distinct seismogenic belts/sources. These are l) the Outer arc region consisting of Andaman-Nicobar islands 2) the back-arc Andaman Sea 3)The Sumatran fault zone(SFZ)4)Java onshore region termed as Jave Fault Zone(JFZ)5)Sumatran fore arc silver plate consisting of Mentawai fault(MFZ)6) The offshore java fore arc region 7)The Sunda Strait region.As the Seismicity is variable,it is difficult to demarcate individual seismogenic sources.Hence, we employed a moving window method having a window length of 3—4° and with 50% overlapping starting from one end to the other. We succeeded in defining 4 sources each in the Andaman fore arc and Back arc region, 9 such sources (moving windows) in the Sumatran Fault zone (SFZ), 9 sources in the offshore SFZ region and 7 sources in the offshore Java region. Because of the low seismicity along JFZ, it is separated into three seismogenic sources namely West Java, Central Java and East Java. The Sunda strait is considered as a single seismogenic source.The deformation rates for each of the seismogenic zones have been computed. A detailed error analysis of velocity tensors using Monte—Carlo simulation method has been carried out in order to obtain uncertainties. The eigen values and the respective eigen vectors of the velocity tensor are computed to analyze the actual deformation pattem for different zones. The results obtained have been discussed in the light of regional tectonics, and their implications in terms of geodynamics have been enumerated.ln the light of recent major earthquakes (26th December 2004 and 28th March 2005 events) and the ongoing seismic activity, we have recalculated the variation in the crustal deformation rates prior and after these earthquakes in Andaman—Sumatra region including the data up to 2005 and the significant results has been presented.ln this chapter, the down going lithosphere along the subduction zone is modeled using the free air gravity data by taking into consideration the thickness of the crustal layer, the thickness of the subducting slab, sediment thickness, presence of volcanism, the proximity of the continental crust etc. Here a systematic and detailed gravity interpretation constrained by seismicity and seismic data in the Andaman arc and the Andaman Sea region in order to delineate the crustal structure and density heterogeneities a Io nagnd across the arc and its correlation with the seismogenic behaviour is presented.
Resumo:
Forest is essential for the healthy subsistence of human being on earth. Law has been framed to regulate exploitation of forest.This study is an analysis of the law relating to forest from an environmental perspective.Practical suggestions are also made for the better protection of forest .Forest is a valuable component of human environment.For healthy subsistence of human beings on earth it is essential that at least one third of the land area on earth should be under forest cover. Forest helps in keeping air and water fresh and climate good.The Indian Forest Act 1927 and State legislation relating to forest impose Governmental control over forests by classifying them into reserved forests. Protected forests and village forests.Effective environmental impact studies facilitate adoption of the practice of sustainable development.Permission should not be granted for a project before examination of its impact on the flora and fauna in forest.Kerala, much of the vested forest remains under the control of the State Government and are managed like reserved forests.Infrastructural facilities require improvement in almost all States for protecting forest.Inter-State problems can be minimised if a central forest legislation is applied uniformly throughout India.Voluntary organisations should be encouraged to taxe part actively in the programmes for conserving forest and wildlife.The new Forest Act should provide for effective environmental impact study before development projects are undertaken in forest areas. The guidelines for this should be clearly laid down in the Act.The law relating to forest should also clearly lay down the guidelines for implementing social forestry programmes. The Forest Department should be authorised to lease lands for planting useful trees. The new forest legislation should also recognise the traditional tribal rights in forest. The Indian Forest Act 1927 and the State legislation relating to forest with their outdated revenue policy and scheme should be replaced by such a new forest legislation framed with an environmental peres-pective. The new law should be uniformly applied throughout India .
Resumo:
The doctoral thesis focuses on the Studies on fuzzy Matroids and related topics.Since the publication of the classical paper on fuzzy sets by L. A. Zadeh in 1965.the theory of fuzzy mathematics has gained more and more recognition from many researchers in a wide range of scientific fields. Among various branches of pure and applied mathematics, convexity was one of the areas where the notion of fuzzy set was applied. Many researchers have been involved in extending the notion of abstract convexity to the broader framework of fuzzy setting. As a result, a number of concepts have been formulated and explored. However. many concepts are yet to be fuzzified. The main objective of this thesis was to extend some basic concepts and results in convexity theory to the fuzzy setting. The concept like matroids, independent structures. classical convex invariants like Helly number, Caratheodoty number, Radon number and Exchange number form an important area of study in crisp convexity theory. In this thesis, we try to generalize some of these concepts to the fuzzy setting. Finally, we have defined different types of fuzzy matroids derived from vector spaces and discussed some of their properties.
Resumo:
The main objective of the present study was to explore ways of making latex products more cost effective and versatile. Polyethylene glycol was identified as a surface active agent in latex compounds which improves the filler-polymer interaction and also distributes the filler more uniformly. The use of such surface active agents can develop filled latex products with improved mechanical properties at a lower cost. In this study dispersions of carbon black and silica were successfully added to NR latex under high speed stirring without destabilizing latex.