932 resultados para data reduction by factor analysis


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Résumé Depuis le début des années 1990, la recherche sur le développement régional a pris une importance considérable dans les disciplines de l’économie et de la géographie dans la plupart des pays. De nombreuses études ont été consacrées à ce sujet et l’on constate une approche analytique de plus en plus sophistiquée. Que les économies pauvres ont tendance à converger vers les pays riches, ou bien à diverger au fil du temps est une question qui a attiré l'attention des décideurs et des universitaires depuis quelques décennies. Convergence ou de divergence économique est un sujet d'intérêt et de débat, non seulement pour valider ou non les deux modèles principaux de croissance qui sont considérés comme concurrent (l’approche néo-classique et celle des approches de croissance endogène), mais aussi pour ses implications pour les publiques politiques. En se basant sur une analyse des politiques de développement régional et des analyses statistiques de la convergence et des disparités régionales, les objectifs de cette thèse sont de tenter de fournir une explication des différents processus et des modèles de développement économique régional poursuivis dans le cas de territoires immenses en utilisant le Canada et la Chine comme études de cas, d'entreprendre une analyse des différents facteurs et des forces motrices qui sous-tendent le développement régional dans ces deux pays, et d'explorer à la fois les réussites et les échecs apparents dans les politiques de développement régional en comparant et contrastant les expériences de développement régional et les modèles de ces deux pays. A fin d'atteindre cet objectif, la recherche utilise une approche multi-scalaire et des méthodes de mesure multidimensionnelle dans le cadre des analyses sur les disparités « régionales » entre les macro régions (sous-ensembles de provinces) des deux pays, des provinces et des régions urbaines sélectionnées, dans le but ultime d’identifier des problèmes existants en termes de développement régional et de pouvoir proposer des solutions. Les étapes principales de la recherche sont : 1. La cueillette des données statistiques pour le Canada et la Chine (incluant les provinces de Québec et de Xinjiang) pour une gamme d’indicateurs (voir ci-dessous). 2. D’entreprendre une analyse de chaque dimension dans les deux juridictions: Population (p.ex. composition, structure, changement); Ressources (p. ex. utilisation, exploitation de l’énergie); Environnement (p.ex. la pollution); et le Développement socioéconomique (p.ex. le développement et la transformation des secteurs clé, et les modèles de développement rural et urbain), et les disparités changeantes par rapport à ces dimensions. 3. La définition d’une typologie de différents types de région en fonction de leurs trajectoires de développement, ce qui servira pour critiquer l’hypothèse centre-périphérie. 4. Le choix d’une région métropolitaine dans chaque juridiction (province). 5. D’entreprendre une analyse temporelle des événements clé (politiques, investissements) dans chaque région et les facteurs impliqués dans chaque événement, en utilisant l’information documentaire générale et des agences institutionnelles impliqués actuellement et dans un passée récent. Cette étude a tenté d'expliquer les schémas et les processus des deux économies, ainsi que la présentation d'études de cas qui illustrent et examinent les différences dans les deux économies à partir de l’échelle nationale jusqu’au niveau régional et provincial et aussi pour certaines zones urbaines. Cette étude a essayé de répondre aux questions de recherche comme: Est-il vrai que les pays avec des plus grandes territoires sont associés avec des plus grandes disparités interrégionales? Quel est le résultat des comparaisons entre pays développés et pays en développement? Quels sont les facteurs les plus importants dans le développement économique de vastes territoires dans les pays développés et pays en développement? Quel est le mécanisme de convergence et de divergence dans les pays développés et, respectivement, les pays en développement? Dans l'introduction à la thèse, le cadre général de l'étude est présenté, suivie dans le chapitre 1 d'une discussion sur les théories et les concepts utilisés dans la littérature théorique principale qui est pertinent à l'étude. Le chapitre 2 décrit la méthodologie de recherche. Le chapitre 3 présente une vue d'ensemble des politiques de développement économique régional et les programmes du Canada et de la Chine dans des périodes différentes à différentes échelles. Au chapitre 4, la convergence des deux pays à l'échelle nationale et la convergence provinciale pour chaque pays sont examinés en utilisant différentes méthodes de mesure telles que les méthodes traditionnelles, la convergence bêta et la convergence sigma. Dans le chapitre le plus complexe, le chapitre 5, les analyses comparatives sont présentées à l'aide de données statistiques, à partir des analyses des cas régionaux et provinciaux retenus des deux pays. Au chapitre 6, ces dispositions sont complétées par une analyse des régions urbaines choisies, qui permet également des aperçus sur les régions les plus périphériques. Dans la recherche proposée pour cette thèse, la politique, la population, le revenu, l'emploi, la composition industrielle, l'investissement, le commerce et le facteur de la migration sont également pris en compte comme facteurs importants de l'analyse régionale compte tenu de la superficie du territoire des deux pays et les différences de population entre eux. Cette thèse a évalué dans quelle mesure les politiques gouvernementales ont réussi à induire la convergence régionale ou ont encore ont creusé davantage les disparités régionales, ce qui implique nécessairement une évaluation de la durabilité des patrons et des programmes de développement régional. Cette étude a également mis l'accent sur les disparités régionales et la politique de développement régional, les comparaisons entre pays, pour mesurer la convergence entre les pays et entre les régions, y compris l'analyse spatiale, d'identifier les facteurs les plus actifs tels que la population, les ressources, la politique, l'urbanisation, les migrations, l'ouverture économique et leurs différents rôles dans le développement économique de ces grands territoires (au Canada et Chine). Les résultats empiriques et les processus de convergence et de divergence offrent un cadre intéressant pour l'examen de la trajectoire de développement régionales et les disparités régionales dans les deux économies. L'approche adoptée a révélé les différentes mosaïques complexes du développement régional dans les deux pays. Les résultats de cette étude ont démontré que la disparité en termes de revenu régional est une réalité dans chaque zone géographique, et que les causes sont nombreuses et complexes. Les deux économies ont certains parallèles dans la mise en œuvre des politiques de développement économique régional, mais il existe des différences importantes aussi et elles se sont développées à différentes vitesses. Les deux économies se sont développées depuis la Seconde Guerre mondiale, mais la Chine a connu une croissance rapide que le Canada comme témoignent de nombreux indicateurs depuis 1980. Cependant, la Chine est maintenant confrontée à un certain nombre de problèmes économiques et sociaux, y compris les disparités régionales marquées, un fossé toujours croissant entre les revenus ruraux et urbains, une population vieillissante, le chômage, la pauvreté et la dégradation rapide de l'environnement avec toujours plus de demandes en énergie. Le développement économique régional en Chine est plus déséquilibré. Le Canada accuse un degré de disparités régionales et provinciales moins important que la Chine. Dans les cas provinciaux, il existe d'importantes différences et de disparités dans la structure économique et spatiale du Québec et du Xinjiang. Les disparités infra provinciales sont plus grandes que celles à l’échelle des provinces et des grandes régions (des sous-ensembles de provinces). Les mécanismes de convergence et de divergence dans les deux pays sont différents. Les résultats empiriques et les processus de convergence et de divergence offrent un cadre intéressant pour l'examen de la trajectoire de développement régionale et les disparités régionales dans les deux économies. Cette étude démontre également que l'urbanisation (les métropoles et les villes) s’avère être le facteur le plus actif et contribue à l'économie régionale dans ces grands territoires. L'ouverture a joué un rôle important dans les économies des deux pays. La migration est un facteur majeur dans la stimulation de l'économie des deux pays mais de façons différentes. Les résultats empiriques démontrent que les disparités régionales ne peuvent pas être évitées et elles existent presque partout. Il n'y a pas une formule universelle et de politiques spécifiques sont de mise pour chaque région. Mais il semble possible pour les décideurs politiques nationaux et régionaux d’essayer de maintenir l'écart à une échelle raisonnable pour éviter l'instabilité sociale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En écologie, dans le cadre par exemple d’études des services fournis par les écosystèmes, les modélisations descriptive, explicative et prédictive ont toutes trois leur place distincte. Certaines situations bien précises requièrent soit l’un soit l’autre de ces types de modélisation ; le bon choix s’impose afin de pouvoir faire du modèle un usage conforme aux objectifs de l’étude. Dans le cadre de ce travail, nous explorons dans un premier temps le pouvoir explicatif de l’arbre de régression multivariable (ARM). Cette méthode de modélisation est basée sur un algorithme récursif de bipartition et une méthode de rééchantillonage permettant l’élagage du modèle final, qui est un arbre, afin d’obtenir le modèle produisant les meilleures prédictions. Cette analyse asymétrique à deux tableaux permet l’obtention de groupes homogènes d’objets du tableau réponse, les divisions entre les groupes correspondant à des points de coupure des variables du tableau explicatif marquant les changements les plus abrupts de la réponse. Nous démontrons qu’afin de calculer le pouvoir explicatif de l’ARM, on doit définir un coefficient de détermination ajusté dans lequel les degrés de liberté du modèle sont estimés à l’aide d’un algorithme. Cette estimation du coefficient de détermination de la population est pratiquement non biaisée. Puisque l’ARM sous-tend des prémisses de discontinuité alors que l’analyse canonique de redondance (ACR) modélise des gradients linéaires continus, la comparaison de leur pouvoir explicatif respectif permet entre autres de distinguer quel type de patron la réponse suit en fonction des variables explicatives. La comparaison du pouvoir explicatif entre l’ACR et l’ARM a été motivée par l’utilisation extensive de l’ACR afin d’étudier la diversité bêta. Toujours dans une optique explicative, nous définissons une nouvelle procédure appelée l’arbre de régression multivariable en cascade (ARMC) qui permet de construire un modèle tout en imposant un ordre hiérarchique aux hypothèses à l’étude. Cette nouvelle procédure permet d’entreprendre l’étude de l’effet hiérarchisé de deux jeux de variables explicatives, principal et subordonné, puis de calculer leur pouvoir explicatif. L’interprétation du modèle final se fait comme dans une MANOVA hiérarchique. On peut trouver dans les résultats de cette analyse des informations supplémentaires quant aux liens qui existent entre la réponse et les variables explicatives, par exemple des interactions entres les deux jeux explicatifs qui n’étaient pas mises en évidence par l’analyse ARM usuelle. D’autre part, on étudie le pouvoir prédictif des modèles linéaires généralisés en modélisant la biomasse de différentes espèces d’arbre tropicaux en fonction de certaines de leurs mesures allométriques. Plus particulièrement, nous examinons la capacité des structures d’erreur gaussienne et gamma à fournir les prédictions les plus précises. Nous montrons que pour une espèce en particulier, le pouvoir prédictif d’un modèle faisant usage de la structure d’erreur gamma est supérieur. Cette étude s’insère dans un cadre pratique et se veut un exemple pour les gestionnaires voulant estimer précisément la capture du carbone par des plantations d’arbres tropicaux. Nos conclusions pourraient faire partie intégrante d’un programme de réduction des émissions de carbone par les changements d’utilisation des terres.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La réalisation des objectifs d’Éducation pour tous en Haïti requiert impérativement, entre autres, une campagne massive et accélérée de formation d’enseignants - formation à la fois initiale et en cours d’emploi. Malheureusement, les structures actuelles sont loin d’être en mesure de répondre à cette demande. Il faudra donc recourir à d’autres modalités de formation, particulièrement celles utilisant les TIC (technologies de l’information et de la communication). Cependant, dans ce domaine, il est fort tentant de continuer à copier ce qui se fait en France, au Canada ou aux États-Unis, et d’allonger ainsi la liste d’échecs dus à une adaptation déficiente ou inexistante. Dans un souci de maximiser les chances de succès, il est important d’examiner l’adéquation des stratégies adoptées au contexte et à l’apprenant haïtiens. Cette recherche étudie les caractéristiques des enseignants haïtiens des deux premiers cycles de l’enseignement fondamental (primaire) en tant qu’apprenants, caractéristiques susceptibles de constituer des barrières ou des facteurs facilitants internes à une intégration efficace des TIC dans leur formation. Dans une première phase quantitative, une enquête a été administrée en 2009-2010 à 176 enseignants. L’analyse des données recueillies a permis de faire ressortir trois tendances fortes : une attitude positive par rapport aux innovations et aux TIC, des sources intrinsèques de motivation et une forte distance hiérarchique ; il faut aussi signaler deux autres résultats importants : le peu de familiarité avec l’ordinateur et l’adoption massive du cellulaire ; les réponses étaient plus partagées au niveau de la conception de l’enseignement et de l’apprentissage et de la dimension individualisme-collectivisme. Une analyse factorielle a fait émerger quatre facteurs : la capacité d’utiliser les TIC, le désir de changement, la conception du rôle du formateur et la distance hiérarchique. Suite à cette enquête, une phase qualitative comportant sept entrevues individuelles avec des spécialistes de la formation des enseignants en Haïti et trois groupes de discussion avec des enseignants du fondamental a été effectuée à la fin de 2010. Cette phase avait pour but d’enrichir, de compléter, d’expliquer, de confirmer et d’illustrer les résultats quantitatifs. Malgré leur regard plus sévère, les spécialistes en formation des enseignants ont largement contribué à l’interprétation des résultats, particulièrement ceux concernant l’attitude par rapport aux innovations et aux TIC, la dimension individualisme-collectivisme et la conception de l’enseignement et de l’apprentissage. Quant aux participants aux groupes de discussion, ils ont globalement appuyé les résultats de la phase quantitative, mais en expliquant et en nuançant certains aspects. Ils ont particulièrement renforcé l’importance de deux facteurs qui ne figuraient pas dans la liste initiale et qui ont émergé de l’analyse factorielle : le désir de changement et la conception du rôle du formateur. Ils ont également apporté des éclaircissements fort pertinents sur la distance hiérarchique. .

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This paper introduces a framework for analysis of cross-sectional dependence in the idiosyncratic volatilities of assets using high frequency data. We first consider the estimation of standard measures of dependence in the idiosyncratic volatilities such as covariances and correlations. Next, we study an idiosyncratic volatility factor model, in which we decompose the co-movements in idiosyncratic volatilities into two parts: those related to factors such as the market volatility, and the residual co-movements. When using high frequency data, naive estimators of all of the above measures are biased due to the estimation errors in idiosyncratic volatility. We provide bias-corrected estimators and establish their asymptotic properties. We apply our estimators to high-frequency data on 27 individual stocks from nine different sectors, and document strong cross-sectional dependence in their idiosyncratic volatilities. We also find that on average 74% of this dependence can be explained by the market volatility.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Study Design Retrospective study of surgical outcome. Objectives To evaluate quantitatively the changes in trunk surface deformities after scoliosis spinal surgery in Lenke 1A adolescent idiopathic scoliosis (AIS) patients and to compare it with changes in spinal measurements. Summary of Background Data Most studies documenting scoliosis surgical outcome used either radiographs to evaluate changes in the spinal curve or questionnaires to assess patients health-related quality of life. Because improving trunk appearance is a major reason for patients and their parents to seek treatment, this study focuses on postoperative changes in trunk surface deformities. Recently, a novel approach to quantify trunk deformities in a reliable, automatic, and noninvasive way has been proposed. Methods Forty-nine adolescents with Lenke 1A idiopathic scoliosis treated surgically were included. The back surface rotation and trunk lateral shift were computed on trunk surface acquisitions before and at least 6 months after surgery. We analyzed the effect of age, height, weight, curve severity, and flexibility before surgery, length of follow-up, and the surgical technique. For 25 patients with available three-dimensional (3D) spinal reconstructions, we compared changes in trunk deformities with changes in two-dimensional (2D) and 3D spinal measurements. Results The mean correction rates for the back surface rotation and the trunk lateral shift are 18% and 50%, respectively. Only the surgical technique had a significant effect on the correction rate of the back surface rotation. Direct vertebral derotation and reduction by spine translation provide a better correction of the rib hump (22% and 31% respectively) than the classic rod rotation technique (8%). The reductions of the lumbar Cobb angle and the apical vertebrae transverse rotation explain, respectively, up to 17% and 16% the reduction of the back surface rotation. Conclusions Current surgical techniques perform well in realigning the trunk; however, the correction of the deformity in the transverse plane proves to be more challenging. More analysis on the positive effect of vertebral derotation on the rib hump correction is needed. Level of evidence III.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Two new complexes, [MII(L)(Cl)(H2O)2]·H2O (where M=Ni or Ru and L = heterocyclic Schiff base, 3- hydroxyquinoxaline-2-carboxalidene-4-aminoantipyrine), have been synthesized and characterized by elemental analysis, FT-IR, UV–vis diffuse reflectance spectroscopy, FAB-MASS, TG–DTA, AAS, cyclic voltammetry, conductance and magnetic susceptibility measurements. The complexes have a distorted octahedral structure andwere found to be effective catalysts for the hydrogenation of benzene. The influence of several reaction parameters such as reaction time, temperature, hydrogen pressure, concentration of the catalyst and concentration of benzenewas tested. A turnover frequency of 5372 h−1 has been found in the case of ruthenium complex for the reduction of benzene at 80 ◦C with 3.64×10−6 mol catalyst, 0.34 mol benzene and at a hydrogen pressure of 50 bar. In the case of the nickel complex, a turnover frequency of 1718 h−1 has been found for the same reaction with 3.95×10−6 mol catalyst under similar experimental conditions. The nickel complex shows more selectivity for the formation of cyclohexene while the ruthenium complex is more selective for the formation of cyclohexane

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Brasses are widely used as constructional materials in marine environment due to their anticorrosive,antifouling and mechanical properties.However, its resistance to corrosion and fouling may vary according to local marine environmental condition and the seasons.The dezincification of brass is one of the forms of selective corrosion which has attracted the attention of researchers for the last two decades.Many of the dezincification mechanistic studies have been performed in noncomplex media and hence their conclusions cannot be extended to esturine water,which is of great significance since brass is extensively used in marine environment.Inhibited α brasses are largely immune to dezincication and the effect of tin and arsenic addition to α/beta brasses is not so reliable in controlling the dezincification. There have been many cases of dezincification in duplex brasses in both freshwater and seawater.Though there is some protection methods such as inhibitors,electro deposition and electro polymerization,there is no reliable method of inhibiting the dezincification of two-phase brass.Organic coatings are effectively used for the protection metals due to their capacity to act a physical barrieer between the metal surface and corrosive environment.Hence,pure epoxy coating is selected for this as it has antocorrosiion effect on brass.The dezincification behaviour of brass of the present study has been highlighted in terms of corrosion rate,weight gain/loss,corrosion current and polarization resistence,open circuit potential,dezincification factor. The marine fouling as biomass on brass was assessed and presented in this thesis, The physicochemical properties of estuarine water were correlated with corrosion behaviour of brass.The deterioration of the brass subjected to the effect of estuarine water was also investigated as a measure of loss in mechanical properties such as tensile strength,yield strength,percntage elongation and percentage reduction in area.To validate dezincification data,visual observation,spot analysis,surface morphology before and after removal of corrosion products and corrosion product analysis were performed.The dezincification behavior of epoxy coated brass of the present study has beenhighlighted in terms of corrosion rate ,weight gain/loss,corrosion current and polarization resistance,open circuit potential.dezincification factor.The marine fouling as biomass on epoxy coated brass subjeted to the effect of estuarine water was also investigated as ameasure of loss in mechanical properties such as tensile strength,percentage elongation and percentage reduction in area.The results of dezincification behavior of brass and epoxy coated brass in Cochin estuary water has been presented and discussed.Attempt has been made to correlate the dezincification behavior of brass with epoxy coated brass.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Impact of teak and eucalypt monoculture on soils in the highlands of kerala .The thesis is arranged under nine chapters. The first chapter introduces the topic, reviews the literature pertaining to the study and presents the aims and objectives of the study. The second chapter briefly describes the study location. experimental design and sampling methodology. The third chapter deals with physical properties of plantation soils. The fourth and fifth chapters cover the chemical properties and macro- and micro nutrient status in plantation soils. The organic matter fractions in plantation soils are described in sixth chapter. First part of the seventh chapter presents the results of factor analysis and the second part deals with fertility index of plantations. All these chapters are self-contained with separate introduction, materials and methods and results and discussions. A general discussion of the results is included in the eighth chapter. The ninth chapter includes conclusions and summary A study that traces the variation in physical and chemical properties and nutrient status of teak soils with age of plantations, till the end of a rotation period is thus highly pertinent. Such a study, with an adjacent natural forest as a reference stand will not only generate information that will help us to understand the pattern of variation in soil properties, but will also aid us in formulating better management strategies. The data generated by such a study will be more useful if accompanied by information on soil changes following a short rotation plantation crop. As Eucalypt, a short rotation crop is the second major plantation crop in Kerala, it was chosen for the study.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Production Planning and Control (PPC) systems have grown and changed because of the developments in planning tools and models as well as the use of computers and information systems in this area. Though so much is available in research journals, practice of PPC is lagging behind and does not use much from published research. The practices of PPC in SMEs lag behind because of many reasons, which need to be explored This research work deals with the effect of identified variables such as forecasting, planning and control methods adopted, demographics of the key person, standardization practices followed, effect of training, learning and IT usage on firm performance. A model and framework has been developed based on literature. Empirical testing of the model has been done after collecting data using a questionnaire schedule administered among the selected respondents from Small and Medium Enterprises (SMEs) in India. Final data included 382 responses. Hypotheses linking SME performance with the use of forecasting, planning and controlling were formed and tested. Exploratory factor analysis was used for data reduction and for identifying the factor structure. High and low performing firms were classified using a Logistic Regression model. A confirmatory factor analysis was used to study the structural relationship between firm performance and dependent variables.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

For years, choosing the right career by monitoring the trends and scope for different career paths have been a requirement for all youngsters all over the world. In this paper we provide a scientific, data mining based method for job absorption rate prediction and predicting the waiting time needed for 100% placement, for different engineering courses in India. This will help the students in India in a great deal in deciding the right discipline for them for a bright future. Information about passed out students are obtained from the NTMIS ( National technical manpower information system ) NODAL center in Kochi, India residing in Cochin University of science and technology

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Multispectral analysis is a promising approach in tissue classification and abnormality detection from Magnetic Resonance (MR) images. But instability in accuracy and reproducibility of the classification results from conventional techniques keeps it far from clinical applications. Recent studies proposed Independent Component Analysis (ICA) as an effective method for source signals separation from multispectral MR data. However, it often fails to extract the local features like small abnormalities, especially from dependent real data. A multisignal wavelet analysis prior to ICA is proposed in this work to resolve these issues. Best de-correlated detail coefficients are combined with input images to give better classification results. Performance improvement of the proposed method over conventional ICA is effectively demonstrated by segmentation and classification using k-means clustering. Experimental results from synthetic and real data strongly confirm the positive effect of the new method with an improved Tanimoto index/Sensitivity values, 0.884/93.605, for reproduced small white matter lesions

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The distribution and accumulation of trace metals in the sediments of the Cochin estuary during the pre-monsoon, monsoon and post-monsoon periods were investigated. Sediment samples from 14 locations were collected and analysed for the metal contents (Mg, Cr, Mn, Fe, Co, Ni, Cu, Zn, Cd and Pb), organic carbon, total nitrogen, total sulphur and grain size. The data were processed using statistical tools like correlation, factor and cluster analysis. The study revealed an enrichment of Cd and Zn in the study area particularly at station 2, which is confirmed by enrichment factor, contamination factor and geoaccumulation index. The factor analysis revealed that the source of Cd and Zn may be same. The study indicated that the spatial variation for the metals like Mg, Cr, Fe, Co, Ni, Cu, Zn, Cd and Pb were predominant unlike Mn which shows a temporal variation. The strong association of trace metals with Fe and Mn hydroxides and oxides are prominent along the Cochin estuary. The anthropogenic inputs of industrial effluents mainly control the trace metals enrichment in the Cochin estuary

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Study on variable stars is an important topic of modern astrophysics. After the invention of powerful telescopes and high resolving powered CCD’s, the variable star data is accumulating in the order of peta-bytes. The huge amount of data need lot of automated methods as well as human experts. This thesis is devoted to the data analysis on variable star’s astronomical time series data and hence belong to the inter-disciplinary topic, Astrostatistics. For an observer on earth, stars that have a change in apparent brightness over time are called variable stars. The variation in brightness may be regular (periodic), quasi periodic (semi-periodic) or irregular manner (aperiodic) and are caused by various reasons. In some cases, the variation is due to some internal thermo-nuclear processes, which are generally known as intrinsic vari- ables and in some other cases, it is due to some external processes, like eclipse or rotation, which are known as extrinsic variables. Intrinsic variables can be further grouped into pulsating variables, eruptive variables and flare stars. Extrinsic variables are grouped into eclipsing binary stars and chromospheri- cal stars. Pulsating variables can again classified into Cepheid, RR Lyrae, RV Tauri, Delta Scuti, Mira etc. The eruptive or cataclysmic variables are novae, supernovae, etc., which rarely occurs and are not periodic phenomena. Most of the other variations are periodic in nature. Variable stars can be observed through many ways such as photometry, spectrophotometry and spectroscopy. The sequence of photometric observa- xiv tions on variable stars produces time series data, which contains time, magni- tude and error. The plot between variable star’s apparent magnitude and time are known as light curve. If the time series data is folded on a period, the plot between apparent magnitude and phase is known as phased light curve. The unique shape of phased light curve is a characteristic of each type of variable star. One way to identify the type of variable star and to classify them is by visually looking at the phased light curve by an expert. For last several years, automated algorithms are used to classify a group of variable stars, with the help of computers. Research on variable stars can be divided into different stages like observa- tion, data reduction, data analysis, modeling and classification. The modeling on variable stars helps to determine the short-term and long-term behaviour and to construct theoretical models (for eg:- Wilson-Devinney model for eclips- ing binaries) and to derive stellar properties like mass, radius, luminosity, tem- perature, internal and external structure, chemical composition and evolution. The classification requires the determination of the basic parameters like pe- riod, amplitude and phase and also some other derived parameters. Out of these, period is the most important parameter since the wrong periods can lead to sparse light curves and misleading information. Time series analysis is a method of applying mathematical and statistical tests to data, to quantify the variation, understand the nature of time-varying phenomena, to gain physical understanding of the system and to predict future behavior of the system. Astronomical time series usually suffer from unevenly spaced time instants, varying error conditions and possibility of big gaps. This is due to daily varying daylight and the weather conditions for ground based observations and observations from space may suffer from the impact of cosmic ray particles. Many large scale astronomical surveys such as MACHO, OGLE, EROS, xv ROTSE, PLANET, Hipparcos, MISAO, NSVS, ASAS, Pan-STARRS, Ke- pler,ESA, Gaia, LSST, CRTS provide variable star’s time series data, even though their primary intention is not variable star observation. Center for Astrostatistics, Pennsylvania State University is established to help the astro- nomical community with the aid of statistical tools for harvesting and analysing archival data. Most of these surveys releases the data to the public for further analysis. There exist many period search algorithms through astronomical time se- ries analysis, which can be classified into parametric (assume some underlying distribution for data) and non-parametric (do not assume any statistical model like Gaussian etc.,) methods. Many of the parametric methods are based on variations of discrete Fourier transforms like Generalised Lomb-Scargle peri- odogram (GLSP) by Zechmeister(2009), Significant Spectrum (SigSpec) by Reegen(2007) etc. Non-parametric methods include Phase Dispersion Minimi- sation (PDM) by Stellingwerf(1978) and Cubic spline method by Akerlof(1994) etc. Even though most of the methods can be brought under automation, any of the method stated above could not fully recover the true periods. The wrong detection of period can be due to several reasons such as power leakage to other frequencies which is due to finite total interval, finite sampling interval and finite amount of data. Another problem is aliasing, which is due to the influence of regular sampling. Also spurious periods appear due to long gaps and power flow to harmonic frequencies is an inherent problem of Fourier methods. Hence obtaining the exact period of variable star from it’s time series data is still a difficult problem, in case of huge databases, when subjected to automation. As Matthew Templeton, AAVSO, states “Variable star data analysis is not always straightforward; large-scale, automated analysis design is non-trivial”. Derekas et al. 2007, Deb et.al. 2010 states “The processing of xvi huge amount of data in these databases is quite challenging, even when looking at seemingly small issues such as period determination and classification”. It will be beneficial for the variable star astronomical community, if basic parameters, such as period, amplitude and phase are obtained more accurately, when huge time series databases are subjected to automation. In the present thesis work, the theories of four popular period search methods are studied, the strength and weakness of these methods are evaluated by applying it on two survey databases and finally a modified form of cubic spline method is intro- duced to confirm the exact period of variable star. For the classification of new variable stars discovered and entering them in the “General Catalogue of Vari- able Stars” or other databases like “Variable Star Index“, the characteristics of the variability has to be quantified in term of variable star parameters.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Restarting automata are a restricted model of computation that was introduced by Jancar et.al. to model the so-called analysis by reduction. A computation of a restarting automaton consists of a sequence of cycles such that in each cycle the automaton performs exactly one rewrite step, which replaces a small part of the tape content by another, even shorter word. Thus, each language accepted by a restarting automaton belongs to the complexity class $CSL cap NP$. Here we consider a natural generalization of this model, called shrinking restarting automaton, where we do no longer insist on the requirement that each rewrite step decreases the length of the tape content. Instead we require that there exists a weight function such that each rewrite step decreases the weight of the tape content with respect to that function. The language accepted by such an automaton still belongs to the complexity class $CSL cap NP$. While it is still unknown whether the two most general types of one-way restarting automata, the RWW-automaton and the RRWW-automaton, differ in their expressive power, we will see that the classes of languages accepted by the shrinking RWW-automaton and the shrinking RRWW-automaton coincide. As a consequence of our proof, it turns out that there exists a reduction by morphisms from the language class $cL(RRWW)$ to the class $cL(RWW)$. Further, we will see that the shrinking restarting automaton is a rather robust model of computation. Finally, we will relate shrinking RRWW-automata to finite-change automata. This will lead to some new insights into the relationships between the classes of languages characterized by (shrinking) restarting automata and some well-known time and space complexity classes.