967 resultados para Discrete Conditional Phase-type model
Resumo:
The objective of the present study was to determine whether sleep deprivation (SD) would promote changes in lymphocyte numbers in a type 1 diabetes model (non-obese diabetic, NOD, mouse strain) and to determine whether SD would affect female and male NOD compared to Swiss mice. The number of lymphocytes in peripheral blood after 24 and 96 h of SD (by multiple platform method) or equivalent period of time in home-cage controls was examined prior to the onset of diabetes. SD for 96 h significantly reduced lymphocytes in male Swiss mice compared to control (8.6 ± 2.1 vs 4.1 ± 0.7 10³/µL; P < 0.02). In male NOD animals, 24- and 96-h SD caused a significant decrease of lymphocytes compared to control (4.4 ± 0.3 vs 1.6 ± 0.5; P < 0.001 and 4.4 ± 0.3 vs 0.9 ± 0.1 10³/µL; P < 0.00001, respectively). Both 24- and 96-h SD induced a reduction in the number of lymphocytes in female Swiss (7.5 ± 0.5 vs 4.5 ± 0.5, 4.4 ± 0.6 10³/µL; P < 0.001, respectively) and NOD mice (4 ± 0.6 vs 1.8 ± 0.2, 1.2 ± 0.4 10³/µL; P < 0.01, respectively) compared to the respective controls. Loss of sleep induced lymphopenia in peripheral blood in both genders and strains used. Since many cases of autoimmunity present reduced numbers of lymphocytes and, in this study, it was more evident in the NOD strain, our results suggest that SD should be considered a risk factor in the onset of autoimmune disorders.
Resumo:
Recent animal studies have indicated that overexpression of the elongation of long-chain fatty acids family member 6 (Elovl6) gene can cause insulin resistance and β-cell dysfunction. These are the major factors involved in the development of type 2 diabetes mellitus (T2DM). To identify the relationship between single nucleotide polymorphisms (SNP) ofELOVL6 and T2DM pathogenesis, we conducted a case-control study of 610 Han Chinese individuals (328 newly diagnosed T2DM and 282 healthy subjects). Insulin resistance and islet first-phase secretion function were evaluated by assessment of insulin resistance in a homeostasis model (HOMA-IR) and an arginine stimulation test. Three SNPs of the ELOVL6 gene were genotyped with polymerase chain reaction-restriction fragment length polymorphism, with DNA sequencing used to confirm the results. Only genotypes TT and CT of the ELOVL6 SNP rs12504538 were detected in the samples. Genotype CC was not observed. The T2DM group had a higher frequency of the C allele and the CT genotype than the control group. Subjects with the CT genotype had higher HOMA-IR values than those with the TT genotype. In addition, no statistical significance was observed between the genotype and allele frequencies of the control and T2DM groups for SNPs rs17041272 and rs6824447. The study indicated that the ELOVL6 gene polymorphism rs12504538 is associated with an increased risk of T2DM, because it causes an increase in insulin resistance.
Resumo:
The aim of this work was to study the effect of the hydrolysis degree (HD) and the concentration (C PVA) of two types of poly (vinyl alcohol) (PVA) and the effect of the type and the concentration of plasticizers on the phase properties of biodegradable films based on blends of gelatin and PVA, using a response-surface methodology. The films were made by casting and the studied properties were their glass (Tg) and melting (Tm) transition temperatures, which were determined by diferential scanning calorimetry (DSC). For the data obtained on the first scan, the fitting of the linear model was statistically significant and predictive only for the second melting temperature. In this case, the most important effect on the second Tm of the first scan was due to the HD of the PVA. In relation to the second scan, the linear model could be fit to Tg data with only two statistically significant parameters. Both the PVA and plasticizer concentrations had an important effect on Tg. Concerning the second Tm of the second scan, the linear model was fit to data with two statistically significant parameters, namely the HD and the plasticizer concentration. But, the most important effect was provoked by the HD of the PVA.
Resumo:
Presently non-commercial occurrences of Mississippi Valley-type ore assemblages in the Middle Silurian strata of the Niagara Peninsula have been studied. Based on this detailed study, a new poly-stage genetic model is proposed which relates ore mineralization in carbonate environments to the evolution of the sedimentary basin. Sulphide ore mineralization occurred during two episodes: 1. During the late diagenesis stage, which is characterized by compaction-maturation of the sediments, the initial mineralization took place by upward and outward movement of connate waters. Metals were probably supplied from all the sediments regardless of their specific lithologies. However, clay minerals were possibly the main contributors. The possible source of sulphur was from petroleum-type hydrocarbons presently mixed with the sediments at the site of ore deposition. Evidence for this is the fact that the greatest abundance of ore minerals is in petroliferous carbonates. The hydrocarbons probably represent liquids remaining after upward migration to the overlying Guelph-Salina reservoirs. The majority of sphalerite and galena formed during this period, as well as accessory pyrite, marcasite, chalcopyrite, chalcocite, arsenopyrite, and pyrrhotite; and secondary dolomite, calcite, celestite, and gypsum. 2. During the presently ongoing surface erosion and weathering phase, which is marked by the downward movement of groundwater, preexisting sulphides were probably remobilized, and trace amounts of lead and zinc were leached from the host material, by groundwaters. Metal sulphides precipitated at, or below, the water table, or where atmospheric oxygen could raise the Eh of groundwaters to the point where soluble metal complexes are unstable and native sulphur co-precipitates with sphalerite and galena. This process, which can be observed today, also results in the transport and deposition of the host rock material. Breakdown of pre-existing sulphide and sulphate, as well as hydrocarbon present in the host rock, provided sulphur necessary for sulphide precipitation. The galena and sphalerite are accompanied by dolomite, calcite, gypsum, anglesite, native sulphur and possibly zincite.
Resumo:
An analytical model for bacterial accumulation in a discrete fractllre has been developed. The transport and accumlllation processes incorporate into the model include advection, dispersion, rate-limited adsorption, rate-limited desorption, irreversible adsorption, attachment, detachment, growth and first order decay botl1 in sorbed and aqueous phases. An analytical solution in Laplace space is derived and nlln1erically inverted. The model is implemented in the code BIOFRAC vvhich is written in Fortran 99. The model is derived for two phases, Phase I, where adsorption-desorption are dominant, and Phase II, where attachment-detachment are dominant. Phase I ends yvhen enollgh bacteria to fully cover the substratllm have accllillulated. The model for Phase I vvas verified by comparing to the Ogata-Banks solution and the model for Phase II was verified by comparing to a nonHomogenous version of the Ogata-Banks solution. After verification, a sensitiv"ity analysis on the inpllt parameters was performed. The sensitivity analysis was condllcted by varying one inpllt parameter vvhile all others were fixed and observing the impact on the shape of the clirve describing bacterial concentration verSllS time. Increasing fracture apertllre allovvs more transport and thus more accllffilliation, "Vvhich diminishes the dllration of Phase I. The larger the bacteria size, the faster the sllbstratum will be covered. Increasing adsorption rate, was observed to increase the dllration of Phase I. Contrary to the aSSllmption ofllniform biofilm thickness, the accllffilliation starts frOll1 the inlet, and the bacterial concentration in aqlleous phase moving towards the olitiet declines, sloyving the accumulation at the outlet. Increasing the desorption rate, redllces the dliration of Phase I, speeding IIp the accllmlilation. It was also observed that Phase II is of longer duration than Phase I. Increasing the attachment rate lengthens the accliffililation period. High rates of detachment speeds up the transport. The grovvth and decay rates have no significant effect on transport, althollgh increases the concentrations in both aqueous and sorbed phases are observed. Irreversible adsorption can stop accllillulation completely if the vallIes are high.
Resumo:
Rapport de recherche
Resumo:
Les progrès spectaculaires réalisés dans le traitement de la fibrose kystique font en sorte qu'un nombre de plus en plus élevé de familles comptant un adolescent atteint de ce problème de santé, peut maintenant envisager d'effectuer la transition depuis l'adolescent vers l'âge adulte. À ce jour, les recherches à ce sujet demeurent peu nombreuses, principalement en ce qui a trait à la nature des interations entre les adolescents, leurs parents et les professionnels de la santé qui préparent ces familles en vue du transfert, depuis un établissement pédiatrique vers un établissement adulte. L'appréhension de ce phénomène s'est réalisée dans une perspective constructiviste et systémique, ce qui a permis de mettre en relief certaines des multiples facettes du phénomène et de jeter un éclairage novateur sur des dynamiques entre les membres de la famille et entre ces derniers et les professionnels de la santé. Le but de cette étude de cas, de type qualitavive, était de modéliser de manière systémique, le processus de transtion pour des familles ayant un adolescent atteint de la fibrose kystique qui est en phase pré transfert, depuis l'établissement pédiatrique vers le milieu adulte. Des entretiens semi-dirigés ont été réalisés avec sept familles comptant un adolescent atteint de la fibrose kystique. De plus, un entretien de groupe a également été effectué avec une équipe interprofessionnelle oeuvrant dans une clinique qui traite des adolescents atteints de la fibrose kysitque. L'analyse qualitative des données a mené au développement d'un modèle systémique de la transition pour ces familles. Ce modèle souligne qu'en évoluant de façon parallèle, les familles et les professionnels de la santé poursuivent la même finalité de favoriser le développement de l'autonomie de l'adolescent. Ce processus de transition chez ces familles s'inscrit, par ailleurs, dans un espace-temps signifié par le transfert inter-établissements, avec peu de considération pour la souffrance parentale liée au pronostic de la maladie. Ainsi, le développement de l'autonomie est marqué par la confiance qui doit s'établir entre l'adolescent et son parent, en passant par la surveillance du parent envers l'adolescent et par la responsabilisation graduelle chez ce dernier. Cette étude propose donc une modélisation systémique de ce processus de transition qui contribue non seulement au développement du concept de la transition en sciences de la santé, mais aussi de la pratique clinique et de la recherche dans le domaine des soins à la famille aux prises avec un adolescent atteint de la fibrose kystique.
Resumo:
Ce mémoire présente l’application de la méthode de décomposition en termes de diagrammes aux désintégrations de mésons B vers trois mésons de type pseudos- calaire ne comportant pas de quarks charmés. La décomposition diagrammatique des désintégrations de types B → Kππ, B → KKK ̄, B → KK ̄π et B → πππ est effectuée de façon systématique. Il est démontré que lorsque l’on néglige les dia- grammes d’échanges et d’annihilations, dont les contributions sont estimées être petites, de nouvelles relations apparaissent entre les amplitudes. Ces relations sont de nouveaux tests du modèle standard qui ne peuvent être obtenus que par la méthode diagrammatique. Lorsque les données nécessaires sont disponibles, nous vérifions ces relations et obtenons un bon accord avec les données expérimentales. Nous démontrons également qu’il est possible d’utiliser le secteur B → Kππ pour mesurer la phase faible γ avec une incertitude théorique que nous estimons être de l’ordre de 5%. Les autres secteurs de désintégrations ne permettent d’extraire des phases faibles que si l’on invoque des approximations de précisions inconnues.
Resumo:
Lors d'une intervention conversationnelle, le langage est supporté par une communication non-verbale qui joue un rôle central dans le comportement social humain en permettant de la rétroaction et en gérant la synchronisation, appuyant ainsi le contenu et la signification du discours. En effet, 55% du message est véhiculé par les expressions faciales, alors que seulement 7% est dû au message linguistique et 38% au paralangage. L'information concernant l'état émotionnel d'une personne est généralement inférée par les attributs faciaux. Cependant, on ne dispose pas vraiment d'instruments de mesure spécifiquement dédiés à ce type de comportements. En vision par ordinateur, on s'intéresse davantage au développement de systèmes d'analyse automatique des expressions faciales prototypiques pour les applications d'interaction homme-machine, d'analyse de vidéos de réunions, de sécurité, et même pour des applications cliniques. Dans la présente recherche, pour appréhender de tels indicateurs observables, nous essayons d'implanter un système capable de construire une source consistante et relativement exhaustive d'informations visuelles, lequel sera capable de distinguer sur un visage les traits et leurs déformations, permettant ainsi de reconnaître la présence ou absence d'une action faciale particulière. Une réflexion sur les techniques recensées nous a amené à explorer deux différentes approches. La première concerne l'aspect apparence dans lequel on se sert de l'orientation des gradients pour dégager une représentation dense des attributs faciaux. Hormis la représentation faciale, la principale difficulté d'un système, qui se veut être général, est la mise en œuvre d'un modèle générique indépendamment de l'identité de la personne, de la géométrie et de la taille des visages. La démarche qu'on propose repose sur l'élaboration d'un référentiel prototypique à partir d'un recalage par SIFT-flow dont on démontre, dans cette thèse, la supériorité par rapport à un alignement conventionnel utilisant la position des yeux. Dans une deuxième approche, on fait appel à un modèle géométrique à travers lequel les primitives faciales sont représentées par un filtrage de Gabor. Motivé par le fait que les expressions faciales sont non seulement ambigües et incohérentes d'une personne à une autre mais aussi dépendantes du contexte lui-même, à travers cette approche, on présente un système personnalisé de reconnaissance d'expressions faciales, dont la performance globale dépend directement de la performance du suivi d'un ensemble de points caractéristiques du visage. Ce suivi est effectué par une forme modifiée d'une technique d'estimation de disparité faisant intervenir la phase de Gabor. Dans cette thèse, on propose une redéfinition de la mesure de confiance et introduisons une procédure itérative et conditionnelle d'estimation du déplacement qui offrent un suivi plus robuste que les méthodes originales.
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.
Resumo:
Le syndrome de détresse respiratoire aiguë (SDRA) se développe suite à une atteinte pulmonaire lésionnelle, induisant un œdème et une inflammation excessive, généralement suivis d’une réparation atypique menant à la fibrose. Malgré de signifiants progrès dans les traitements, la mortalité reste élevée : ~ 40 %. Mon hypothèse de travail est que l’atténuation de l’œdème ou de la réponse inflammatoire pourrait freiner le développement ou la sévérité de la phase exsudative. Nous avons évalué cette hypothèse à l’aide d’un modèle de phase exsudative du SDRA, i.e. instillation intra-trachéale de bléomycine, chez les souris. La modulation des fluides alvéolaires est étudiée avec des souris transgénique (Tg) pour le canal ENaC, qui sont sensibles à la formation d’un œdème. Cependant, ces souris Tg ne sont pas plus sensibles au développement de la phase exsudative en condition lésionnelle (bléomycine). Nous avons déterminé par une étude électrophysiologique des cellules épithéliales alvéolaires de type II (AT II) que ce n’est pas lié à une inhibition par la bléomycine de la fonction du canal ENaC. Le traitement de la réponse inflammatoire associée au SDRA par des glucocorticoïdes est une thérapie potentielle mais controversée. Les glucocorticoïdes dans notre modèle murin ne réduisent pas la sévérité des lésions. Nous avons pu déterminé lors d’expériences in vitro que ce serait dû à une réduction de la capacité de réparation des AT II. En résumé : La modulation du canal ENaC ne modifie pas le développement de la phase exsudative, suggérant que la régulation de l’œdème n’est pas suffisante pour modifier l’évolution du SDRA. La modulation de l’inflammation par les glucocorticoïdes est ineffective, possiblement à cause d’une altération de la réparation. Mon étude suggère que le traitement de la phase exsudative du SDRA est complexe. En effet, la régulation de l’œdème ou de l’inflammation de façon isolée ne peut pas modifier l’évolution du SDRA. L'hétérogénéité des sources du SDRA et la redondance des mécanismes cellulaires impliqués dans l’évolution des lésions pulmonaires suggèrent que le traitement nécessitera une approche visant plusieurs cibles mécanistiques afin d’en accélérer la résolution.
Resumo:
L'objectif de cette thèse est de présenter différentes applications du programme de recherche de calcul conditionnel distribué. On espère que ces applications, ainsi que la théorie présentée ici, mènera à une solution générale du problème d'intelligence artificielle, en particulier en ce qui a trait à la nécessité d'efficience. La vision du calcul conditionnel distribué consiste à accélérer l'évaluation et l'entraînement de modèles profonds, ce qui est très différent de l'objectif usuel d'améliorer sa capacité de généralisation et d'optimisation. Le travail présenté ici a des liens étroits avec les modèles de type mélange d'experts. Dans le chapitre 2, nous présentons un nouvel algorithme d'apprentissage profond qui utilise une forme simple d'apprentissage par renforcement sur un modèle d'arbre de décisions à base de réseau de neurones. Nous démontrons la nécessité d'une contrainte d'équilibre pour maintenir la distribution d'exemples aux experts uniforme et empêcher les monopoles. Pour rendre le calcul efficient, l'entrainement et l'évaluation sont contraints à être éparse en utilisant un routeur échantillonnant des experts d'une distribution multinomiale étant donné un exemple. Dans le chapitre 3, nous présentons un nouveau modèle profond constitué d'une représentation éparse divisée en segments d'experts. Un modèle de langue à base de réseau de neurones est construit à partir des transformations éparses entre ces segments. L'opération éparse par bloc est implémentée pour utilisation sur des cartes graphiques. Sa vitesse est comparée à deux opérations denses du même calibre pour démontrer le gain réel de calcul qui peut être obtenu. Un modèle profond utilisant des opérations éparses contrôlées par un routeur distinct des experts est entraîné sur un ensemble de données d'un milliard de mots. Un nouvel algorithme de partitionnement de données est appliqué sur un ensemble de mots pour hiérarchiser la couche de sortie d'un modèle de langage, la rendant ainsi beaucoup plus efficiente. Le travail présenté dans cette thèse est au centre de la vision de calcul conditionnel distribué émis par Yoshua Bengio. Elle tente d'appliquer la recherche dans le domaine des mélanges d'experts aux modèles profonds pour améliorer leur vitesse ainsi que leur capacité d'optimisation. Nous croyons que la théorie et les expériences de cette thèse sont une étape importante sur la voie du calcul conditionnel distribué car elle cadre bien le problème, surtout en ce qui concerne la compétitivité des systèmes d'experts.
Resumo:
La synthèse de siliciures métalliques sous la forme de films ultra-minces demeure un enjeu majeur en technologie CMOS. Le contrôle du budget thermique, afin de limiter la diffusion des dopants, est essentiel. Des techniques de recuit ultra-rapide sont alors couramment utilisées. Dans ce contexte, la technique de nanocalorimétrie est employée afin d'étudier, in situ, la formation en phase solide des siliciures de Ni à des taux de chauffage aussi élevés que 10^5 K/s. Des films de Ni, compris entre 9.3 et 0.3 nm sont déposés sur des calorimètres avec un substrat de a-Si ou de Si(100). Des mesures de diffraction de rayons X, balayées en température à 3 K/s, permettent de comparer les séquences de phase obtenues à bas taux de chauffage sur des échantillons de contrôle et à ultra-haut taux de chauffage sur les calorimètres. En premier lieu, il est apparu que l'emploi de calorimètres de type c-NC, munis d'une couche de 340 nm de Si(100), présente un défi majeur : un signal endothermique anormal vient fausser la mesure à haute température. Des micro-défauts au sein de la membrane de SiNx créent des courts-circuits entre la bande chauffante de Pt du calorimètre et l'échantillon métallique. Ce phénomène diminue avec l'épaisseur de l'échantillon et n'a pas d'effet en dessous de 400 °C tant que les porteurs de charge intrinsèques au Si ne sont pas activés. Il est possible de corriger la mesure de taux de chaleur en fonction de la température avec une incertitude de 12 °C. En ce qui a trait à la formation des siliciures de Ni à ultra-haut taux de chauffage, l'étude montre que la séquence de phase est modifiée. Les phases riches en m étal, Ni2Si et théta, ne sont pas détectées sur Si(100) et la cinétique de formation favorise une amorphisation en phase solide en début de réaction. Les enthalpies de formation pour les couches de Ni inférieures à 10 nm sont globalement plus élevées que dans le cas volumique, jusqu' à 66 %. De plus, les mesures calorimétriques montrent clairement un signal endothermique à haute température, témoignant de la compétition que se livrent la réaction de phase et l'agglomération de la couche. Pour les échantillons recuits a 3 K/s sur Si(100), une épaisseur critique telle que décrite par Zhang et Luo, et proche de 4 nm de Ni, est supposée. Un modèle est proposé, basé sur la difficulté de diffusion des composants entre des grains de plus en plus petits, afin d'expliquer la stabilité accrue des couches de plus en plus fines. Cette stabilité est également observée par nanocalorimétrie à travers le signal endothermique. Ce dernier se décale vers les hautes températures quand l'épaisseur du film diminue. En outre, une 2e épaisseur critique, d'environ 1 nm de Ni, est remarquée. En dessous, une seule phase semble se former au-dessus de 400 °C, supposément du NiSi2.
Resumo:
Introduction Les lésions induites par les rayons UV peuvent causer des blocages dans la réplication de l'ADN. Ces dommages sont éliminés par le processus moléculaire très conservé de réparation par excision de nucléotides (NER). Nous avons précédemment démontré que la protéine ATR, une kinase majeure impliquée dans le stress réplicatif, est requise pour une NER efficace, et ce exclusivement durant la phase S. Des résultats subséquents ont suggéré que ce prérequis n’était pas lié à la réponse induite par ATR, mais plutôt d’une conséquence globale causée par la présence de stress réplicatif. En ce sens, nous mettons l’emphase qu’après irradiation UV, le complexe RPA joue un rôle crucial dans l'activation des mécanismes de NER ainsi que dans le redémarrage des fourches de réplication bloquées. Hypothèses: En général, les mutations qui confèrent une augmentation du stress réplicatif engendrent une séquestration excessive du facteur RPA aux fourches de réplication bloquées ce qui réduit son accessibilité pour le NER. Méthodes et résultats: Le modèle de la levure a été choisi pour vérifier cette hypothèse. Nous avons développé un essai de NER spécifique à chacune des phases du cycle cellulaire pour démontrer que les cellules déficientes en Mec1, l’homologue d’ATR, sont défectives dans la réparation par excision de nucléotides spécifiquement en phase S. De plus, plusieurs autres mutants de levure, caractérisés par un niveau de dommages spontanés élevé, ont aussi exhibé un défaut similaire. Ces mutants ont démontré une fréquence et une intensité de formation de foyers de RPA plus élevée. Finalement, une diminution partielle de RPA dans les levures a induit un défaut significatif dans le NER spécifiquement durant la phase S. Conclusion: Nos résultats supportent la notion que la séquestration de RPA aux fourches de réplication endommagées durant la phase S prévient son utilisation pour la réparation par excision de nucléotides ce qui inhibe fortement l'efficacité de réparation. Cette étude chez la levure facilite l’élucidation du phénomène analogue chez l’humain et, ultimement, comprend des implications majeures dans la compréhension du mécanisme de développement des cancers UV-dépendants.
Resumo:
Study on variable stars is an important topic of modern astrophysics. After the invention of powerful telescopes and high resolving powered CCD’s, the variable star data is accumulating in the order of peta-bytes. The huge amount of data need lot of automated methods as well as human experts. This thesis is devoted to the data analysis on variable star’s astronomical time series data and hence belong to the inter-disciplinary topic, Astrostatistics. For an observer on earth, stars that have a change in apparent brightness over time are called variable stars. The variation in brightness may be regular (periodic), quasi periodic (semi-periodic) or irregular manner (aperiodic) and are caused by various reasons. In some cases, the variation is due to some internal thermo-nuclear processes, which are generally known as intrinsic vari- ables and in some other cases, it is due to some external processes, like eclipse or rotation, which are known as extrinsic variables. Intrinsic variables can be further grouped into pulsating variables, eruptive variables and flare stars. Extrinsic variables are grouped into eclipsing binary stars and chromospheri- cal stars. Pulsating variables can again classified into Cepheid, RR Lyrae, RV Tauri, Delta Scuti, Mira etc. The eruptive or cataclysmic variables are novae, supernovae, etc., which rarely occurs and are not periodic phenomena. Most of the other variations are periodic in nature. Variable stars can be observed through many ways such as photometry, spectrophotometry and spectroscopy. The sequence of photometric observa- xiv tions on variable stars produces time series data, which contains time, magni- tude and error. The plot between variable star’s apparent magnitude and time are known as light curve. If the time series data is folded on a period, the plot between apparent magnitude and phase is known as phased light curve. The unique shape of phased light curve is a characteristic of each type of variable star. One way to identify the type of variable star and to classify them is by visually looking at the phased light curve by an expert. For last several years, automated algorithms are used to classify a group of variable stars, with the help of computers. Research on variable stars can be divided into different stages like observa- tion, data reduction, data analysis, modeling and classification. The modeling on variable stars helps to determine the short-term and long-term behaviour and to construct theoretical models (for eg:- Wilson-Devinney model for eclips- ing binaries) and to derive stellar properties like mass, radius, luminosity, tem- perature, internal and external structure, chemical composition and evolution. The classification requires the determination of the basic parameters like pe- riod, amplitude and phase and also some other derived parameters. Out of these, period is the most important parameter since the wrong periods can lead to sparse light curves and misleading information. Time series analysis is a method of applying mathematical and statistical tests to data, to quantify the variation, understand the nature of time-varying phenomena, to gain physical understanding of the system and to predict future behavior of the system. Astronomical time series usually suffer from unevenly spaced time instants, varying error conditions and possibility of big gaps. This is due to daily varying daylight and the weather conditions for ground based observations and observations from space may suffer from the impact of cosmic ray particles. Many large scale astronomical surveys such as MACHO, OGLE, EROS, xv ROTSE, PLANET, Hipparcos, MISAO, NSVS, ASAS, Pan-STARRS, Ke- pler,ESA, Gaia, LSST, CRTS provide variable star’s time series data, even though their primary intention is not variable star observation. Center for Astrostatistics, Pennsylvania State University is established to help the astro- nomical community with the aid of statistical tools for harvesting and analysing archival data. Most of these surveys releases the data to the public for further analysis. There exist many period search algorithms through astronomical time se- ries analysis, which can be classified into parametric (assume some underlying distribution for data) and non-parametric (do not assume any statistical model like Gaussian etc.,) methods. Many of the parametric methods are based on variations of discrete Fourier transforms like Generalised Lomb-Scargle peri- odogram (GLSP) by Zechmeister(2009), Significant Spectrum (SigSpec) by Reegen(2007) etc. Non-parametric methods include Phase Dispersion Minimi- sation (PDM) by Stellingwerf(1978) and Cubic spline method by Akerlof(1994) etc. Even though most of the methods can be brought under automation, any of the method stated above could not fully recover the true periods. The wrong detection of period can be due to several reasons such as power leakage to other frequencies which is due to finite total interval, finite sampling interval and finite amount of data. Another problem is aliasing, which is due to the influence of regular sampling. Also spurious periods appear due to long gaps and power flow to harmonic frequencies is an inherent problem of Fourier methods. Hence obtaining the exact period of variable star from it’s time series data is still a difficult problem, in case of huge databases, when subjected to automation. As Matthew Templeton, AAVSO, states “Variable star data analysis is not always straightforward; large-scale, automated analysis design is non-trivial”. Derekas et al. 2007, Deb et.al. 2010 states “The processing of xvi huge amount of data in these databases is quite challenging, even when looking at seemingly small issues such as period determination and classification”. It will be beneficial for the variable star astronomical community, if basic parameters, such as period, amplitude and phase are obtained more accurately, when huge time series databases are subjected to automation. In the present thesis work, the theories of four popular period search methods are studied, the strength and weakness of these methods are evaluated by applying it on two survey databases and finally a modified form of cubic spline method is intro- duced to confirm the exact period of variable star. For the classification of new variable stars discovered and entering them in the “General Catalogue of Vari- able Stars” or other databases like “Variable Star Index“, the characteristics of the variability has to be quantified in term of variable star parameters.