976 resultados para Neptune (Planet)
Resumo:
Le suivi des populations animales et végétales nous a amené à constater une perte importante de la diversité biologique. Les objectifs de la Convention sur la diversité biologique à atteindre pour 2010 sous-tendent la poursuite détaillée de ce suivi à l’échelle mondiale (CBD 2000). Cependant, il est difficile d’avoir une perception d’ensemble de la biodiversité d’un territoire, car les écosystèmes sont des entités dynamiques et évolutives, dans l’espace et dans le temps. Le choix d’un indicateur relevant de l’ensemble des ces caractéristiques devient donc primordial, bien qu’il s’agisse d’une tâche laborieuse. Ce projet propose d’utiliser la bioacoustique comme indicateur environnemental pour faire le suivi des espèces animales en milieu tropical. Afin de faire un suivi à une échelle régionale de la biodiversité, et ce, dans l’un des biomes les plus menacés de la planète, soit celui de la Mata Atlântica brésilienne, ce projet de recherche a comme objectif général de démontrer qu’il est possible d’associer la biophonie (événements sonores), à des événements biologiques (la richesse spécifique animale) en quantifiant des événements sonores (à l’aide des chants produits par les oiseaux, les insectes chanteurs de même que par les anoures) et en tentant de les associer aux fluctuations de la biodiversité. En plus de répondre à cet objectif général, trois objectifs spécifiques ont été définis : 1) comparer la biophonie et l’anthropophonie de milieux soumis à différents niveaux d’anthropisation ou de conservation afin d’évaluer l’impact anthropique sur le milieu, 2) évaluer la variabilité spatiale de la biodiversité, de même que 3) sa variabilité temporelle. Les résultats ont démontré que la biophonie est représentative de la biodiversité d’un milieu, et ce, même dans des conditions de biodiversité maximale puisqu’il existe une très forte relation entre les deux variables. De plus, les résultats révèlent une différence significative dans le ratio anthropophonie/biophonie de milieux soumis à différents niveaux de protection du territoire. La différenciation d’indices de puissance relative (dB/kHz) nous indique également l’importance de la variabilité spatiale et temporelle de la biodiversité, et par conséquent, l’importance de faire le suivi des espèces dans divers milieux et à diverses périodes afin d’obtenir une vision adéquate de la biodiversité régionale.
Resumo:
L’évolution rapide des technologies de détection et de caractérisation des exoplanètes depuis le début des années 1990 permet de croire que de nouveaux instruments du type Terrestrial Planet Finder (TPF) pourront prendre les premiers spectres d’exoplanètes semblables à la Terre d’ici une ou deux décennies. Dans ce contexte, l’étude du spectre de la seule planète habitée connue, la Terre, est essentielle pour concevoir ces instruments et analyser leurs résultats. Cette recherche présente les spectres de la Terre dans le visible (390-900 nm), acquis lors de 8 nuits d’observation étalées sur plus d’un an. Ces spectres ont été obtenus en observant la lumière cendrée de la Lune avec le télescope de 1.6 m de l’Observatoire du Mont-Mégantic (OMM). La surface de la Lune réfléchissant de manière diffuse la lumière provenant d’une portion de la Terre, ces spectres sont non résolus spatialement. L’évolution de ces spectres en fonction de la lumière réfléchie à différentes phases de Terre est analogue à celle du spectre d’une exoplanète, dont la phase change selon sa position autour de l’étoile. L'eau, l'oxygène et l'ozone de l’atmosphère, détectés dans tous nos spectres, sont des biomarqueurs dont la présence suggère l’habitabilité de la planète et/ou la présence d’une activité biologique. Le Vegetation Red Edge (VRE), une autre biosignature spectrale, dû aux organismes photosynthétiques à la surface, est caractérisé par l’augmentation de la réflectivité autour de 700 nm. Pour les spectres de 5 nuits, cette augmentation a été évaluée entre -5 et 15% ±~5%, après que les contributions de la diffusion de Rayleigh, des aérosols et d’une large bande moléculaire de l’ozone aient été enlevées. Les valeurs mesurées sont cohérentes avec la présence de végétation dans la phase de la Terre contribuant au spectre, mais s’étendent sur une plage de variations plus large que celles trouvées dans la littérature (0-10%). Cela pourrait s’expliquer par des choix faits lors de la réduction des données et du calcul du VRE, ou encore par la présence d’autres éléments de surface ou de l’atmosphère dont la contribution spectrale autour de 700 nm serait variable.
Resumo:
Cette recherche consiste en une étude de cas sur un groupe d’artisans qui a réussi à transformer sa production artisanale en importante source de revenus. Ces artisans, de culture caiçara, ont formé une coopérative dans la municipalité de Guaraqueçaba, dans l’État du Paraná au Brésil. Caiçara est le nom de la population traditionnelle métisse qui habite dans les zones côtières du Sud et Sud-est du Brésil. La région de Guaraqueçaba abrite des écosystèmes de biodiversité extrêmement riche et précieuse, dont la conservation est une priorité à l’échelle mondiale. Afin de réguler l’utilisation des ressources naturelles de ces écosystèmes, une aire protégée a été créée en 1985. Par la suite, de sévères restrictions entourant les moyens de subsistance ont été imposées aux communautés caiçaras, ayant comme conséquences leur appauvrissement, la discontinuation de leur mode de vie et des dommages à leur culture. Cette étude de cas s’est penchée sur une population traditionnelle luttant pour améliorer ses conditions de vie par le biais du design, activité par laquelle nous créons de la culture matérielle. L’objectif de cette recherche est de comprendre comment la création d’artisanat destiné à la vente peut être un vecteur d’autonomisation et de valorisation de la culture locale. L’approche de la collecte des données sur le terrain, inspiré de l’ethnographie, a utilisé les méthodes suivant : des entrevues (non structurées et semi-dirigées), des observations (participantes et non participantes) et des photos. Ayant un caractère exploratoire, l’étude a exploré des questions liées à l’autonomisation et la culture avec le but d’encourager et de préparer le terrain pour des recherches futures.
Resumo:
L’érosion éolienne est un problème environnemental parmi les plus sévères dans les régions arides, semi-arides et les régions sèches sub-humides de la planète. L’érosion des sols accélérée par le vent provoque des dommages à la fois localement et régionalement. Sur le plan local, elle cause la baisse des nutriments par la mobilisation des particules les plus fines et de la matière organique. Cette mobilisation est une des causes de perte de fertilité des sols avec comme conséquence, une chute de la productivité agricole et une réduction de la profondeur de la partie arable. Sur le plan régional, les tempêtes de poussières soulevées par le vent ont un impact non négligeable sur la santé des populations, et la déposition des particules affecte les équipements hydrauliques tels que les canaux à ciel ouvert ainsi que les infrastructures notamment de transport. Dans les régions où les sols sont fréquemment soumis à l’érosion éolienne, les besoins pour des études qui visent à caractériser spatialement les sols selon leur degré de vulnérabilité sont grands. On n’a qu’à penser aux autorités administratives qui doivent décider des mesures à prendre pour préserver et conserver les potentialités agropédologiques des sols, souvent avec des ressources financières modestes mises à leur disposition. Or, dans certaines de ces régions, comme notre territoire d’étude, la région de Thiès au Sénégal, ces études font défaut. En effet, les quelques études effectuées dans cette région ou dans des contextes géographiques similaires ont un caractère plutôt local et les approches suivies (modèles de pertes des sols) nécessitent un nombre substantiel de données pour saisir la variabilité spatiale de la dynamique des facteurs qui interviennent dans le processus de l’érosion éolienne. La disponibilité de ces données est particulièrement problématique dans les pays en voie de développement, à cause de la pauvreté en infrastructures et des problèmes de ressources pour le monitoring continu des variables environnementales. L’approche mise de l’avant dans cette recherche vise à combler cette lacune en recourant principalement à l’imagerie satellitale, et plus particulièrement celle provenant des satellites Landsat-5 et Landsat-7. Les images Landsat couvrent la presque totalité de la zone optique du spectre exploitable par télédétection (visible, proche infrarouge, infrarouge moyen et thermique) à des résolutions relativement fines (quelques dizaines de mètres). Elles permettant ainsi d’étudier la distribution spatiale des niveaux de vulnérabilité des sols avec un niveau de détails beaucoup plus fin que celui obtenu avec des images souvent utilisées dans des études environnementales telles que AVHRR de la série de satellites NOAA (résolution kilométrique). De plus, l’archive complet des images Landsat-5 et Landsat-7 couvrant une période de plus de 20 ans est aujourd’hui facilement accessible. Parmi les paramètres utilisés dans les modèles d’érosion éolienne, nous avons identifiés ceux qui sont estimables par l’imagerie satellitale soit directement (exemple, fraction du couvert végétal) soit indirectement (exemple, caractérisation des sols par leur niveau d’érodabilité). En exploitant aussi le peu de données disponibles dans la région (données climatiques, carte morphopédologique) nous avons élaboré une base de données décrivant l’état des lieux dans la période de 1988 à 2002 et ce, selon les deux saisons caractéristiques de la région : la saison des pluies et la saison sèche. Ces données par date d’acquisition des images Landsat utilisées ont été considérées comme des intrants (critères) dans un modèle empirique que nous avons élaboré en modulant l’impact de chacun des critères (poids et scores). À l’aide de ce modèle, nous avons créé des cartes montrant les degrés de vulnérabilité dans la région à l’étude, et ce par date d’acquisition des images Landsat. Suite à une série de tests pour valider la cohérence interne du modèle, nous avons analysé nos cartes afin de conclure sur la dynamique du processus pendant la période d’étude. Nos principales conclusions sont les suivantes : 1) le modèle élaboré montre une bonne cohérence interne et est sensible aux variations spatiotemporelles des facteurs pris en considération 2); tel qu’attendu, parmi les facteurs utilisés pour expliquer la vulnérabilité des sols, la végétation vivante et l’érodabilité sont les plus importants ; 3) ces deux facteurs présentent une variation importante intra et inter-saisonnière de sorte qu’il est difficile de dégager des tendances à long terme bien que certaines parties du territoire (Nord et Est) aient des indices de vulnérabilité forts, peu importe la saison ; 4) l’analyse diachronique des cartes des indices de vulnérabilité confirme le caractère saisonnier des niveaux de vulnérabilité dans la mesure où les superficies occupées par les faibles niveaux de vulnérabilité augmentent en saison des pluies, donc lorsque l’humidité surfacique et la végétation active notamment sont importantes, et décroissent en saison sèche ; 5) la susceptibilité, c’est-à-dire l’impact du vent sur la vulnérabilité est d’autant plus forte que la vitesse du vent est élevée et que la vulnérabilité est forte. Sur les zones où la vulnérabilité est faible, les vitesses de vent élevées ont moins d’impact. Dans notre étude, nous avons aussi inclus une analyse comparative entre les facteurs extraits des images Landsat et celles des images hyperspectrales du satellite expérimental HYPERION. Bien que la résolution spatiale de ces images soit similaire à celle de Landsat, les résultats obtenus à partir des images HYPERION révèlent un niveau de détail supérieur grâce à la résolution spectrale de ce capteur permettant de mieux choisir les bandes spectrales qui réagissent le plus avec le facteur étudié. Cette étude comparative démontre que dans un futur rapproché, l’amélioration de l’accessibilité à ce type d’images permettra de raffiner davantage le calcul de l’indice de vulnérabilité par notre modèle. En attendant cette possibilité, on peut de contenter de l’imagerie Landsat qui offre un support d’informations permettant tout de même d’évaluer le niveau de fragilisation des sols par l’action du vent et par la dynamique des caractéristiques des facteurs telles que la couverture végétale aussi bien vivante que sénescente.
Resumo:
L’eau a longtemps été considérée comme une ressource commune non susceptible d’appropriation et accessible à tous. De nos jours, toutefois, face à l’inégale répartition de l’eau sur la planète, à l’augmentation constante de la population et à la multiplication des usages qui entraînent la surexploitation et la pollution des ressources hydriques, l’eau prend une valeur nouvelle. L’eau devient de plus en plus un enjeu stratégique, politique et commercial. En conséquence, la redéfinition du statut juridique de l’eau devient un objet de débat important. Ce débat est avant tout un débat rhétorique et une « bataille » idéologique entre des groupes qui soutiennent différentes approches et qui cherchent à obtenir le monopole de la nouvelle réalité et créer ainsi le nouveau droit. Deux grandes approches s’affrontent pour redéfinir la ressource. La première, celle qui envisage l’eau comme un bien économique, soutient que pour éviter les problèmes de gaspillage et de pollution, l’eau doit être soumise aux lois de l’offre et de la demande. La deuxième, celle qui considère l’eau comme une chose commune, non appropriable et hors commerce, soutient que la valeur d’une ressource aussi vitale que l’eau ne peut être établie par les lois du marché puisque cette alternative ne permet pas d’assurer l’accès à l’eau aux plus démunis de la société. Cette approche prône également la reconnaissance d’un droit humain à l’eau. Notre thèse tente de déterminer comment s’effectue le choix du statut juridique de l’eau, et ce, tant au Québec qu’au Mexique. Notre question de recherche est traitée selon une perspective constructiviste en vertu de laquelle le statut juridique de l’eau serait une réalité « construite » et le nouveau droit serait le résultat des luttes, des oppositions et des compromis entre les acteurs sociaux impliqués. Notre terrain d’étude est le Québec et le Mexique. En effet, ce sont des territoires intégrés économiquement par le biais de l’ALENA où l’on observe des variations importantes en termes de ressources, de prélèvements et de consommation. Au Québec, nous analysons le débat qui a eu lieu lors de la Consultation sur la gestion de l’eau au Québec (1999), notamment les discours concernant le statut de l’eau, la gestion publique/privée des services d’eau et l’exportation en vrac de la ressource. Au Mexique, nous analysons les représentations des acteurs sociaux à l’occasion de l’adoption de la Loi des eaux nationales de 1992, notamment les questions qui comportent un lien étroit avec la symbolique de l’eau. Or, nous avons remarqué que le résultat de ces constructions sociales au sein de ces territoires est complètement différent. Au Québec, on a confirmé le statut de l’eau en tant que chose commune, tandis qu’au Mexique, c’est plutôt la symbolique de l’eau en tant que bien économique qui a été adoptée dans la nouvelle législation portant sur l’eau.
Resumo:
Le Québec, qui dispose de près de 3 % des ressources d’eau douce de la planète, a longtemps géré cette ressource selon une rationalité permissive, ce qui a encouragé la pollution de celle-ci. Le secteur industriel est à l’origine des rejets de polluants les plus difficiles à décomposer, lesquels auraient déjà occasionné une baisse de la biodiversité. Dès 1978, le Québec commence à réaffirmer le rôle de l’État dans la protection et la préservation de l’eau. À ce sujet, un programme d’assainissement des eaux, associé à une législation plus contraignante, a permis de récupérer les eaux des fleuves et des rivières les plus polluées. Avec l’adoption de la Politique nationale de l’eau et de la Loi affirmant le caractère collectif des ressources en eau et visant à renforcer leur protection, le Québec réaffirme de nouveau le rôle de l’État en tant que fiduciaire des ressources en eau dans le but de les préserver et de les gérer pour les générations futures.
Resumo:
Le problème de l’extrême pauvreté dans le Tiers-monde n’est pas d’abord une question économique. Il est avant tout politique parce qu’il est la conséquence directe des choix de société et de l’organisation du pouvoir au niveau des États et des diverses instances de la communauté internationale. Le politique a pour objet la conquête du pouvoir et la répartition des richesses à grande échelle. Il s’agit aussi d’un problème moral parce que les options prises collectivement par les peuples et le concert des nations ne s’orientent pas toujours vers la vertu de justice et l’égalité de chances pour tous. Extrême pauvreté et justice globale forment un binôme qui nous ramène donc au cœur de la philosophie politique et morale. Après la Seconde guerre mondiale, la philosophie politique a élargi ses horizons. Elle réfléchit davantage à l’exercice du pouvoir sur la scène internationale et la distribution des richesses au niveau mondial. Le phénomène de la mondialisation économique crée une dépendance mutuelle et d’importantes influences multilatérales entre les États. Plus que par le passé, l’autarcie n’est guère envisageable. Le dogme de la souveraineté intangible des États, issu du Traité de Westphalie au XVIIe siècle, s’avère de plus en plus caduque au regard des enjeux communs auxquels l’humanité fait actuellement face. D’où la nécessité d’une redéfinition du sens des souverainetés nationales et d’une fondation des droits cosmopolitiques pour chaque individu de la planète. Voilà pourquoi le binôme extrême pauvreté/justice globale nécessite une réflexion philosophique sur le concept de la responsabilité qui s’étend non seulement sur la sphère nationale, mais aussi sur une large amplitude cosmopolitique. L’expression « pays du Tiers-monde » peut sembler archaïque, péjorative et humiliante. Cependant, mieux que celles de « pays sous-développés » ou « pays en voie de développement », elle rend compte, sans euphémisme, de la réalité crue, brute et peu élégante de la misère politique et économique qui y sévit. Bien qu’elle semble désuète, elle délimite assez clairement le domaine de définition conceptuel et géographique de notre champ d’investigation philosophique. Elle désigne l’ensemble des pays qui sont exclus de la richesse économique répartie entre les nations. Étant donné que le pouvoir économique va généralement avec le pouvoir politique, cet ensemble est aussi écarté des centres décisionnels majeurs. Caractérisée par une pauvreté extrême, la réalité tiers-mondiste nécessité une analyse minutieuse des causes de cette marginalisation économique et politique à outrance. Une typologie de la notion de responsabilité en offre une figure conceptuelle avec une géométrie de six angles : la causalité, la moralité, la capacité, la communauté, le résultat et la solidarité, comme fondements de la réparation. Ces aspects sous lesquels la responsabilité est étudiée, sont chapeautés par des doctrines philosophiques de types conséquentialiste, utilitariste, déontologique et téléologique. La typologie de la responsabilité donne lieu à plusieurs solutions : aider par philanthropie à sauver des vies humaines ; établir et assigner des responsabilités afin que les torts passés et présents soient réparés aussi bien au niveau national qu’international ; promouvoir l’obligation de protéger dans un contexte international sain qui prenne en considération le devoir négatif de ne pas nuire aux plus défavorisés de la planète ; institutionnaliser des règles transfrontalières de justice ainsi que des droits cosmopolitiques. Enfin, nous entendrons par omniresponsabilité la responsabilité de tous vis-à-vis de ceux qui subissent les affres de l’extrême pauvreté dans le Tiers-monde. Loin d’être un concept-valise fourre-tout, c’est un ensemble de responsabilités partagées par des acteurs identifiables de la scène mondiale, en vue de la coréparation due aux victimes de l’injustice globale. Elle vise un telos : l’épanouissement du bien-être du citoyen du monde.
Resumo:
Les naines brunes sont des objets de masse intermédiaire entre celle nécessaire pour former une étoile et celle d'une planète. Les naines brunes sont classées, des plus chaudes aux plus froides, en types spectraux L, T et Y, caractérisés par une couleur J-K moyenne qui varie de 1.2 à 1.8 pour les étoiles de type L0 à L8, et de 1.8 à -0.5 pour les étoiles de type L8 à T8. Par ailleurs, la couleur J-K de certains types spectraux présente une dispersion de l'ordre d'une magnitude. Ce travail tente de faire la lumière sur la nature de cette grande dispersion, présente dans la couleur J-K des naines brunes de type L2. Les observations ont été réalisées avec la caméra infrarouge CPAPIR à l'Observatoire du Mont Mégantic. Nous avons ciblé un total de 22 naines brunes qui ont été observées en K, et 12 parmi celles-ci ont aussi été observées en J. Chacune des naines brunes a été calibrée à l'aide d'une étoile standard, ce qui rend nos résultats indépendants des données 2MASS. Nous observons une corrélation entre les couleurs J-K de nos données et de celles de 2MASS. Cela montre que la grande dispersion en J-K de nos données et des données 2MASS est due aux propriétés physiques des naines brunes et non à des erreurs observationnelles. L'examen des facteurs qui pourraient être responsables de cette grande dispersion, soit la classification spectrale, la métallicité, la gravité de surface, une binarité non résolue, la présence de nuages de condensats et la rotation, montre que la gravité de surface serait le facteur le plus susceptible d'être responsable de la grande dispersion des valeurs de J-K.
Resumo:
This thesis presents a detailed account of a cost - effective approach towards enhanced production of alkaline protease at profitable levels using different fermentation designs employing cheap agro-industrial residues. It involves the optimisation of process parameters for the production of a thermostable alkaline protease by Vibrio sp. V26 under solid state, submerged and biphasic fermentations, production of the enzyme using cell immobilisation technology and the application of the crude enzyme on the deproteinisation of crustacean waste.The present investigation suggests an economic move towards Improved production of alkaline protease at gainful altitudes employing different fermentation designs utilising inexpensive agro-industrial residues. Moreover, the use of agro-industrial and other solid waste substrates for fermentation helps to provide a substitute in conserving the already dwindling global energy resources. Another alternative for accomplishing economically feasible production is by the use of immobilisation technique. This method avoids the wasteful expense of continually growing microorganisms. The high protease producing potential of the organism under study ascertains their exploitation in the utilisation and management of wastes. However, strain improvement studies for the production of high yielding variants using mutagens or by gene transfer are required before recommending them to Industries.Industries, all over the world, have made several attempts to exploit the microbial diversity of this planet. For sustainable development, it is essential to discover, develop and defend this natural prosperity. The Industrial development of any country is critically dependent on the intellectual and financial investment in this area. The need of the hour is to harness the beneficial uses of microbes for maximum utilisation of natural resources and technological yields. Owing to the multitude of applications in a variety of industrial sectors, there has always been an increasing demand for novel producers and resources of alkaline proteases as well as for innovative methods of production at a commercial altitude. This investigation forms a humble endeavour towards this perspective and bequeaths hope and inspiration for inventions to follow.
Resumo:
In the past, natural resources were plentiful and people were scarce. But the situation is rapidly reversing. Our challenge is to find a way to balance human consumption and nature’s limited productivity in order to ensure that our communities are sustainable locally, regionally and globally. Kochi, the commercial capital of Kerala, South India and the second most important city next to Mumbai on the Western coast is a land having a wide variety of residential environments. Due to rapid population growth, changing lifestyles, food habits and living standards, institutional weaknesses, improper choice of technology and public apathy, the present pattern of the city can be classified as that of haphazard growth with typical problems characteristics of unplanned urban development. Ecological Footprint Analysis (EFA) is physical accounting method, developed by William Rees and M. Wackernagel, focusing on land appropriation using land as its “currency”. It provides a means for measuring and communicating human induced environmental impacts upon the planet. The aim of applying EFA to Kochi city is to quantify the consumption and waste generation of a population and to compare it with the existing biocapacity. By quantifying the ecological footprint we can formulate strategies to reduce the footprint and there by having a sustainable living. In this paper, an attempt is made to explore the tool Ecological Footprint Analysis and calculate and analyse the ecological footprint of the residential areas of Kochi city. The paper also discusses and analyses the waste footprint of the city. An attempt is also made to suggest strategies to reduce the footprint thereby making the city sustainable
Resumo:
In the past, natural resources were plentiful and people were scarce. But the situation is rapidly reversing. According to the Living Planet Report 2006, during the last thirty years, consumption of natural resources has increased 40%, while Earth’s natural wealth in biodiversity has decreased 30%. Our challenge is to find a way to balance human consumption and nature’s limited productivity in order to ensure that our communities are sustainable locally, regionally and globally. Ecological Footprint Analysis (EFA) is physical accounting method, developed by William Rees and M. Wackernagel (1992), focusing on land appropriation using land as its “currency”. It provides a means for measuring and communicating human induced environmental impacts upon the planet. In this paper, an attempt is made to explore the tool Ecological Footprint Analysis. The paper also analyses the methods for calculating ecological footprint, scope of the tool as an impact assessment tool for India and measure for reducing the ecological footprint
Resumo:
Study on variable stars is an important topic of modern astrophysics. After the invention of powerful telescopes and high resolving powered CCD’s, the variable star data is accumulating in the order of peta-bytes. The huge amount of data need lot of automated methods as well as human experts. This thesis is devoted to the data analysis on variable star’s astronomical time series data and hence belong to the inter-disciplinary topic, Astrostatistics. For an observer on earth, stars that have a change in apparent brightness over time are called variable stars. The variation in brightness may be regular (periodic), quasi periodic (semi-periodic) or irregular manner (aperiodic) and are caused by various reasons. In some cases, the variation is due to some internal thermo-nuclear processes, which are generally known as intrinsic vari- ables and in some other cases, it is due to some external processes, like eclipse or rotation, which are known as extrinsic variables. Intrinsic variables can be further grouped into pulsating variables, eruptive variables and flare stars. Extrinsic variables are grouped into eclipsing binary stars and chromospheri- cal stars. Pulsating variables can again classified into Cepheid, RR Lyrae, RV Tauri, Delta Scuti, Mira etc. The eruptive or cataclysmic variables are novae, supernovae, etc., which rarely occurs and are not periodic phenomena. Most of the other variations are periodic in nature. Variable stars can be observed through many ways such as photometry, spectrophotometry and spectroscopy. The sequence of photometric observa- xiv tions on variable stars produces time series data, which contains time, magni- tude and error. The plot between variable star’s apparent magnitude and time are known as light curve. If the time series data is folded on a period, the plot between apparent magnitude and phase is known as phased light curve. The unique shape of phased light curve is a characteristic of each type of variable star. One way to identify the type of variable star and to classify them is by visually looking at the phased light curve by an expert. For last several years, automated algorithms are used to classify a group of variable stars, with the help of computers. Research on variable stars can be divided into different stages like observa- tion, data reduction, data analysis, modeling and classification. The modeling on variable stars helps to determine the short-term and long-term behaviour and to construct theoretical models (for eg:- Wilson-Devinney model for eclips- ing binaries) and to derive stellar properties like mass, radius, luminosity, tem- perature, internal and external structure, chemical composition and evolution. The classification requires the determination of the basic parameters like pe- riod, amplitude and phase and also some other derived parameters. Out of these, period is the most important parameter since the wrong periods can lead to sparse light curves and misleading information. Time series analysis is a method of applying mathematical and statistical tests to data, to quantify the variation, understand the nature of time-varying phenomena, to gain physical understanding of the system and to predict future behavior of the system. Astronomical time series usually suffer from unevenly spaced time instants, varying error conditions and possibility of big gaps. This is due to daily varying daylight and the weather conditions for ground based observations and observations from space may suffer from the impact of cosmic ray particles. Many large scale astronomical surveys such as MACHO, OGLE, EROS, xv ROTSE, PLANET, Hipparcos, MISAO, NSVS, ASAS, Pan-STARRS, Ke- pler,ESA, Gaia, LSST, CRTS provide variable star’s time series data, even though their primary intention is not variable star observation. Center for Astrostatistics, Pennsylvania State University is established to help the astro- nomical community with the aid of statistical tools for harvesting and analysing archival data. Most of these surveys releases the data to the public for further analysis. There exist many period search algorithms through astronomical time se- ries analysis, which can be classified into parametric (assume some underlying distribution for data) and non-parametric (do not assume any statistical model like Gaussian etc.,) methods. Many of the parametric methods are based on variations of discrete Fourier transforms like Generalised Lomb-Scargle peri- odogram (GLSP) by Zechmeister(2009), Significant Spectrum (SigSpec) by Reegen(2007) etc. Non-parametric methods include Phase Dispersion Minimi- sation (PDM) by Stellingwerf(1978) and Cubic spline method by Akerlof(1994) etc. Even though most of the methods can be brought under automation, any of the method stated above could not fully recover the true periods. The wrong detection of period can be due to several reasons such as power leakage to other frequencies which is due to finite total interval, finite sampling interval and finite amount of data. Another problem is aliasing, which is due to the influence of regular sampling. Also spurious periods appear due to long gaps and power flow to harmonic frequencies is an inherent problem of Fourier methods. Hence obtaining the exact period of variable star from it’s time series data is still a difficult problem, in case of huge databases, when subjected to automation. As Matthew Templeton, AAVSO, states “Variable star data analysis is not always straightforward; large-scale, automated analysis design is non-trivial”. Derekas et al. 2007, Deb et.al. 2010 states “The processing of xvi huge amount of data in these databases is quite challenging, even when looking at seemingly small issues such as period determination and classification”. It will be beneficial for the variable star astronomical community, if basic parameters, such as period, amplitude and phase are obtained more accurately, when huge time series databases are subjected to automation. In the present thesis work, the theories of four popular period search methods are studied, the strength and weakness of these methods are evaluated by applying it on two survey databases and finally a modified form of cubic spline method is intro- duced to confirm the exact period of variable star. For the classification of new variable stars discovered and entering them in the “General Catalogue of Vari- able Stars” or other databases like “Variable Star Index“, the characteristics of the variability has to be quantified in term of variable star parameters.
Resumo:
According to Hemingway all good prose has the dignity and draught of an iceberg. This is especially true of Hemingway's short stories. "Francis Macomber" counts among the best composed short stories in English. Interpretation sways between Hemingway's idealisation of the male code and its deconstruction. Is the White Hunter a British scourge of American values or is Margot the tragic victim of a newly founded male friendship? Is the open ending rather a hunting accident or the mean murder of an unloved spouse? Hemingway gives hitherto uninterpreted clues by mentioning strategies of big game hunting and ballistics. Carter's magic story "Master"; deals with the regression of a White Hunter who has become 'his own negative'. An Englishman dissolves into the Amazonian jungle and is killed by his own victim. The story can be read as a macabre crime of sexuality and murder or as a dystopian warning of the future of mankind if we go on exploiting and destroying our planet.
Resumo:
Investing in global environmental and adaptation benefits in the context of agriculture and food security initiatives can play an important role in promoting sustainable intensification. This is a priority for the Global Environment Facility (GEF), created in 1992 with a mandate to serve as financial mechanism of several multilateral environmental agreements. To demonstrate the nature and extent of GEF financing, we conducted an assessment of the entire portfolio over a period of two decades (1991–2011) to identify projects with direct links to agriculture and food security. A cohort of 192 projects and programs were identified and used as a basis for analyzing trends in GEF financing. The projects and programs together accounted for a total GEF financing of US$1,086.8 million, and attracted an additional US$6,343.5 million from other sources. The value-added of GEF financing for ecosystem services and resilience in production systems was demonstrated through a diversity of interventions in the projects and programs that utilized US$810.6 million of the total financing. The interventions fall into the following four main categories in accordance with priorities of the GEF: sustainable land management (US$179.3 million), management of agrobiodiversity (US$113.4 million), sustainable fisheries and water resource management (US$379.8 million), and climate change adaptation (US$138.1 million). By aligning GEF priorities with global aspirations for sustainable intensification of production systems, the study shows that it is possible to help developing countries tackle food insecurity while generating global environmental benefits for a healthy and resilient planet.
Resumo:
A convergence of factors has made food security one of the most important global issues. It has been the core concept of the Milan Expo 2015, whose title, Feeding the Planet, Energy for Life, embodied the challenge to provide the world’s growing population with a sustainable, secure supply of safe, nutritious, and affordable high-quality food using less land with lower inputs. Meeting the food security agenda using current agricultural production techniques cannot be achieved without serious degradation to the environment, including soil degradation, loss of biodiversity and climate change. Organic farming is seen as a solution to the challenge of sustainable food production, as it provides more nutritious food, with less or no pesticide residues and lower use of inputs. A limit of organic farming is its restricted capability of producing food compared to conventional agriculture, thus being an inefficient approach to food production and to food security. The authors maintain, on the basis of a scientific literature review, that organic soils tend to retain the physical, chemical and biological properties over the long term, while maintaining stable levels of productivity and thereby ensuring long-term food production and safety. Furthermore, the productivity gap of organic crops may be worked out by further investment in research and in particular into diversification techniques. Moreover, strong scientific evidence indicates that organic agricultural systems deliver greater ecosystem services and social benefits.