906 resultados para Autoregressive-Moving Average model
Resumo:
Over time the demand for quantitative portfolio management has increased among financial institutions but there is still a lack of practical tools. In 2008 EDHEC Risk and Asset Management Research Centre conducted a survey of European investment practices. It revealed that the majority of asset or fund management companies, pension funds and institutional investors do not use more sophisticated models to compensate the flaws of the Markowitz mean-variance portfolio optimization. Furthermore, tactical asset allocation managers employ a variety of methods to estimate return and risk of assets, but also need sophisticated portfolio management models to outperform their benchmarks. Recent development in portfolio management suggests that new innovations are slowly gaining ground, but still need to be studied carefully. This thesis tries to provide a practical tactical asset allocation (TAA) application to the Black–Litterman (B–L) approach and unbiased evaluation of B–L models’ qualities. Mean-variance framework, issues related to asset allocation decisions and return forecasting are examined carefully to uncover issues effecting active portfolio management. European fixed income data is employed in an empirical study that tries to reveal whether a B–L model based TAA portfolio is able outperform its strategic benchmark. The tactical asset allocation utilizes Vector Autoregressive (VAR) model to create return forecasts from lagged values of asset classes as well as economic variables. Sample data (31.12.1999–31.12.2012) is divided into two. In-sample data is used for calibrating a strategic portfolio and the out-of-sample period is for testing the tactical portfolio against the strategic benchmark. Results show that B–L model based tactical asset allocation outperforms the benchmark portfolio in terms of risk-adjusted return and mean excess return. The VAR-model is able to pick up the change in investor sentiment and the B–L model adjusts portfolio weights in a controlled manner. TAA portfolio shows promise especially in moderately shifting allocation to more risky assets while market is turning bullish, but without overweighting investments with high beta. Based on findings in thesis, Black–Litterman model offers a good platform for active asset managers to quantify their views on investments and implement their strategies. B–L model shows potential and offers interesting research avenues. However, success of tactical asset allocation is still highly dependent on the quality of input estimates.
Resumo:
Tämän kandidaatintutkielman tarkoituksena on tutkia, miten yhdysvaltalaisten lentoyhtiöiden harjoittama rahoituksellinen lentopolttoaineen hintasuojaus on vaikuttanut niiden keskimääräisiin polttoainekustannuksiin 2000-luvun aikana. Lisäksi tavoitteena on kirjallisuuskatsauksen muodossa tarkastella lentopolttoaineen hintariskiä ja siltä suojautumista. Aiheeseen liittyvä aiempi tutkimus on pääasiassa keskittynyt rahoitusasemaan liittyvien vaikutusten tarkasteluun. Tässä tutkielmassa puolestaan tutkitaan suojauksen vaikutusta tarkasteltavien lentoyhtiöiden liiketoiminnan kustannuksiin. Lentopolttoaineen hintasuojauksen kustannusvaikutuksia arvioidaan regressiomallilla, jossa selitettävänä muuttujana on lentoyhtiön keskimääräinen polttoainekustannus. Selittävinä muuttujina puolestaan toimivat seuraavan vuoden arvioiduista polttoainehankinnoista rahoituksellisin keinoin suojattujen hankintojen osuus sekä lentopolttoaineen keskimääräinen markkinahinta kunakin tarkasteluvuonna. Tutkimuksen aineisto koostuu kymmenestä yhdysvaltalaisesta lentoyhtiöstä ja niiden 2000-luvulla vuosikertomuksissaan raportoimista tiedoista liittyen polttoainekustannuksiin ja rahoitukselliseen polttoaineen hintasuojaukseen. Lisäksi lentopolttoaineen keskimääräiset vuotuiset markkinahinnat tarkastelujakson ajalta haetaan Yhdysvaltain energiainformaatiota välittävän viranomaisen verkkotietokannasta. Johtopäätöksenä todetaan yhdysvaltalaisten lentoyhtiöiden rahoituksellisen polttoaineen hintasuojauksen vähentäneen niiden keskimääräisiä polttoainekustannuksia 2000-luvun aikana. Lentopolttoaineen markkinahinnan todetaan vaikuttavan kustannuksiin reilusti lentoyhtiöiden suojaustoimenpiteitä voimakkaammin. Lisäksi aiempiin tutkimuksiin ja toisaalta tässä tutkielmassa estimoitavan mallin autokorreloituvaan luonteeseen nojaten todetaan, että tämän mallin selittävät muuttujat eivät ole ainoat keskimääräisiin polttoainekustannuksiin vaikuttavat tekijät. Yhteenvetona todetaankin tarkempaa lisätutkimusta tarvittavan, jotta tämän tutkielman tulokset voidaan luotettavammin yleistää.
Resumo:
Therllloelynalllics of lllodel 11lel1ll)rane systeills containing 1110nollnsaturatecl I)lloSI)holil) ids is strongly infllienced l)y the I)osition of the C==C dOlll)le })ond in tIle acyl chain. The telllI)eratllres of both chain-nlelting (TM) and La -+ HI! (TH) I)hase traIlsitions are lowered by IIp to 20°C when C==C is Inoved froln positions 6 or 11 to I)osition 9 in an 18-carl)on chain. This work is an attellll)t to ellicidate the uIlderlying Illoleclilar Illechanisllls reSI)Onsi])le for tllese draillatic tllerillodynaillic changes. Mixtllres of di-18: 1 l)hoSI)hatidylethanolanline with C==C at l)ositioIlS 6, 9, 11 were llsed, witll a sI1lall aI1lOlint of I)erdellterated tetradecanol, known to })e a gooel rel)Orter of the cllain Illoleclilar order. SI)ectral second 11I0I1lents were llsed to Illonitor tIle La -+ HII I)hase transition, which was fOllnd to ])e ])road (2-6°C), with a slight llysteresis on heatiIlg/cooling. The orientational order I)rofiles were nleasllred 1lSiIlg 2H Illiclear Illagnetic resonance and changes in these order I)rofiles between La aIld HII I)hases silow l)oth a local increase in order in the vicinity of the C==C bonds and an o\Terall decrease ill the average orientational order of the chain as a whole. These Sll])tle changes recluire })oth high-fidelity SI)ectrosCol)y and a careflll data analysis that takes into aCCOllnt the effects due to l)artiall1lagnetically-indllced orientational ordering of the l)ilayers. In tIle COIltext of SOllle recently rel)Orted cross-relaxation 11leaSlirenlents in Silllilar l)llOSI)llolil)iels, 0111' reslilts sllggest that large-anll)litllde conforlllational changes in the interior of tIle I110del 111eI11])ranes I)lay a 1110re significant role than I)reviollsly thOllght.
Resumo:
Fifty-six percent of Canadians, 20 years of age and older, are inactive (Canadian Community Health Survey, 200012001). Research has indicated that one of the most dramatic declines in population physical activity occurs between adolescence and young adulthood (Melina, 2001; Stephens, Jacobs, & White, 1985), a time when individuals this age are entering or attending college or university. Colleges and universities have generally been seen as environments where physical activity and sport can be promoted and accommodated as a result of the available resources and facilities (Archer, Probert, & Gagne, 1987; Suminski, Petosa, Utter, & Zhang, 2002). Intramural sports, one of the most common campus recreational sports options available for post-secondary students, enable students to participate in activities that are suited for different levels of ability and interest (Lewis, Jones, Lamke, & Dunn, 1998). While intramural sports can positively affect the physical activity levels and sport participation rates of post-secondary students, their true value lies in their ability to encourage sport participation after school ends and during the post-school lives of graduates (Forrester, Ross, Geary, & Hall, 2007). This study used the Sport Commitment Model (Scanlan et aI., 1993a) and the Theory of Planned Behaviour (Ajzen, 1991) with post secondary intramural volleyball participants in an effort to examine students' commitment to intramural sport and 1 intentions to participate in intramural sports. More specifically, the research objectives of this study were to: (1.) test the Sport Commitment Model with a sample of postsecondary intramural sport participants(2.) determine the utility of the sixth construct, social support, in explaining the sport commitment of post-secondary intramural sport participants; (3.) determine if there are any significant differences in the six constructs of IV the SCM and sport commitment between: gender, level of competition (competitive A vs. B), and number of different intramural sports played; (4.) determine if there are any significant differences between sport commitment levels and constructs from the Theory of Planned Behaviour (attitudes, subjective norms, perceived behavioural control, and intentions); (5.) determine the relationship between sport commitment and intention to continue participation in intramural volleyball, continue participating in intramurals and continuing participating in sport and physical activity after graduation; and (6.) determine if the level of sport commitment changes the relationship between the constructs from the Theory of Planned Behaviour. Of the 318 surveys distributed, there were 302 partiCipants who completed a usable survey from the sample of post-secondary intramural sport participants. There was a fairly even split of males and females; the average age of the students was twenty-one; 90% were undergraduate students; for approximately 25% of the students, volleyball was the only intramural sport they participated in at Brock and most were part of the volleyball competitive B division. Based on the post-secondary students responses, there are indications of intent to continue participation in sport and physical activity. The participation of the students is predominantly influenced by subjective norms, high sport commitment, and high sport enjoyment. This implies students expect, intend and want to 1 participate in intramurals in the future, they are very dedicated to playing on an intramural team and would be willing to do a lot to keep playing and students want to participate when they perceive their pursuits as enjoyable and fun, and it makes them happy. These are key areas that should be targeted and pursued by sport practitioners.
Resumo:
Globalization has resulted in large-scale international and local assessments closely tied to notions of accountability and competitiveness in a globalized economy. Although policy makers seek to ensure citizens meet the demands of a global knowledge-based economy, such assessments may also impede the development of requisite 21st century skills. While standardization currently is viewed as the most effective measurement of student achievement, several Canadian and international jurisdictions are moving toward assessment for learning (AfL). This conceptual study sought to identify whether AfL or standardized assessment most effectively meets 21st century learning goals in the wake of rapid global change. It applies a Story Model theoretical framework to understand the current, the new emerging, and the future ideal story of education from a personal, cultural, and global lens. The study examines the main critiques and/or challenges of standardized testing, the benefits of AfL for student learning, and new teaching and assessment approaches to the development of 21st century learning goals. The study applies the Story Model’s inside-outside/past-future approach to determine the future direction of assessment. Results show that the new story of assessment will most likely entail a model that integrates both standardized testing and in-class assessments in the form of AfL and PBL.
Resumo:
In this paper, we develop finite-sample inference procedures for stationary and nonstationary autoregressive (AR) models. The method is based on special properties of Markov processes and a split-sample technique. The results on Markovian processes (intercalary independence and truncation) only require the existence of conditional densities. They are proved for possibly nonstationary and/or non-Gaussian multivariate Markov processes. In the context of a linear regression model with AR(1) errors, we show how these results can be used to simplify the distributional properties of the model by conditioning a subset of the data on the remaining observations. This transformation leads to a new model which has the form of a two-sided autoregression to which standard classical linear regression inference techniques can be applied. We show how to derive tests and confidence sets for the mean and/or autoregressive parameters of the model. We also develop a test on the order of an autoregression. We show that a combination of subsample-based inferences can improve the performance of the procedure. An application to U.S. domestic investment data illustrates the method.
Resumo:
This paper considers various asymptotic approximations in the near-integrated firstorder autoregressive model with a non-zero initial condition. We first extend the work of Knight and Satchell (1993), who considered the random walk case with a zero initial condition, to derive the expansion of the relevant joint moment generating function in this more general framework. We also consider, as alternative approximations, the stochastic expansion of Phillips (1987c) and the continuous time approximation of Perron (1991). We assess how these alternative methods provide or not an adequate approximation to the finite-sample distribution of the least-squares estimator in a first-order autoregressive model. The results show that, when the initial condition is non-zero, Perron's (1991) continuous time approximation performs very well while the others only offer improvements when the initial condition is zero.
Resumo:
La campylobactériose représente la principale cause de gastro-entérite bactérienne dans les pays industrialisés. L’épidémiologie de la maladie est complexe, impliquant plusieurs sources et voies de transmission. L’objectif principal de ce projet était d’étudier les facteurs environnementaux impliqués dans le risque de campylobactériose et les aspects méthodologiques pertinents à cette problématique à partir des cas humains déclarés au Québec (Canada) entre 1996 et 2006. Un schéma conceptuel des sources et voies de transmission de Campylobacter a d’abord été proposé suivant une synthèse des connaissances épidémiologiques tirées d’une revue de littérature extensive. Le risque d’une récurrence de campylobactériose a ensuite été décrit selon les caractéristiques des patients à partir de tables de survie et de modèles de régression logistique. Comparativement au risque de campylobactériose dans la population générale, le risque d’un épisode récurrent était plus élevé pour les quatre années suivant un épisode. Ce risque était similaire entre les genres, mais plus élevé pour les personnes de régions rurales et plus faible pour les enfants de moins de quatre ans. Ces résultats suggèrent une absence d’immunité durable ou de résilience clinique suivant un épisode déclaré et/ou une ré-exposition périodique. L’objectif suivant portait sur le choix de l’unité géographique dans les études écologiques. Neuf critères mesurables ont été proposés, couvrant la pertinence biologique, la communicabilité, l’accès aux données, la distribution des variables d’exposition, des cas et de la population, ainsi que la forme de l’unité. Ces critères ont été appliqués à des unités géographiques dérivées de cadre administratif, sanitaire ou naturel. La municipalité affichait la meilleure performance, étant donné les objectifs spécifiques considérés. Les associations entre l’incidence de campylobactériose et diverses variables (densité de volailles, densité de ruminants, abattoirs, température, précipitations, densité de population, pourcentage de diplomation) ont ensuite été comparées pour sept unités géographiques différentes en utilisant des modèles conditionnels autorégressifs. Le nombre de variables statistiquement significatives variait selon le degré d’agrégation, mais la direction des associations était constante. Les unités plus agrégées tendaient à démontrer des forces d’association plus élevées, mais plus variables, à l’exception de l’abattoir. Cette étude a souligné l’importance du choix de l’unité géographique d’analyse lors d’une utilisation d’un devis d’étude écologique. Finalement, les associations entre l’incidence de campylobactériose et des caractéristiques environnementales ont été décrites selon quatre groupes d’âge et deux périodes saisonnières d’après une étude écologique. Un modèle de Poisson multi-niveau a été utilisé pour la modélisation, avec la municipalité comme unité. Une densité de ruminant élevée était positivement associée avec l’incidence de campylobactériose, avec une force d’association diminuant selon l’âge. Une densité de volailles élevée et la présence d’un abattoir de volailles à fort volume d’abattage étaient également associées à une incidence plus élevée, mais seulement pour les personnes de 16 à 34 ans. Des associations ont également été détectées avec la densité de population et les précipitations. À l’exception de la densité de population, les associations étaient constantes entre les périodes saisonnières. Un contact étroit avec les animaux de ferme explique le plus vraisemblablement les associations trouvées. La spécificité d’âge et de saison devrait être considérée dans les études futures sur la campylobactériose et dans l’élaboration de mesures préventives.
Resumo:
L'interface cerveau-ordinateur (ICO) décode les signaux électriques du cerveau requise par l’électroencéphalographie et transforme ces signaux en commande pour contrôler un appareil ou un logiciel. Un nombre limité de tâches mentales ont été détectés et classifier par différents groupes de recherche. D’autres types de contrôle, par exemple l’exécution d'un mouvement du pied, réel ou imaginaire, peut modifier les ondes cérébrales du cortex moteur. Nous avons utilisé un ICO pour déterminer si nous pouvions faire une classification entre la navigation de type marche avant et arrière, en temps réel et en temps différé, en utilisant différentes méthodes. Dix personnes en bonne santé ont participé à l’expérience sur les ICO dans un tunnel virtuel. L’expérience fut a était divisé en deux séances (48 min chaque). Chaque séance comprenait 320 essais. On a demandé au sujets d’imaginer un déplacement avant ou arrière dans le tunnel virtuel de façon aléatoire d’après une commande écrite sur l'écran. Les essais ont été menés avec feedback. Trois électrodes ont été montées sur le scalp, vis-à-vis du cortex moteur. Durant la 1re séance, la classification des deux taches (navigation avant et arrière) a été réalisée par les méthodes de puissance de bande, de représentation temporel-fréquence, des modèles autorégressifs et des rapports d’asymétrie du rythme β avec classificateurs d’analyse discriminante linéaire et SVM. Les seuils ont été calculés en temps différé pour former des signaux de contrôle qui ont été utilisés en temps réel durant la 2e séance afin d’initier, par les ondes cérébrales de l'utilisateur, le déplacement du tunnel virtuel dans le sens demandé. Après 96 min d'entrainement, la méthode « online biofeedback » de la puissance de bande a atteint une précision de classification moyenne de 76 %, et la classification en temps différé avec les rapports d’asymétrie et puissance de bande, a atteint une précision de classification d’environ 80 %.
Resumo:
Les questions abordées dans les deux premiers articles de ma thèse cherchent à comprendre les facteurs économiques qui affectent la structure à terme des taux d'intérêt et la prime de risque. Je construis des modèles non linéaires d'équilibre général en y intégrant des obligations de différentes échéances. Spécifiquement, le premier article a pour objectif de comprendre la relation entre les facteurs macroéconomiques et le niveau de prime de risque dans un cadre Néo-keynésien d'équilibre général avec incertitude. L'incertitude dans le modèle provient de trois sources : les chocs de productivité, les chocs monétaires et les chocs de préférences. Le modèle comporte deux types de rigidités réelles à savoir la formation des habitudes dans les préférences et les coûts d'ajustement du stock de capital. Le modèle est résolu par la méthode des perturbations à l'ordre deux et calibré à l'économie américaine. Puisque la prime de risque est par nature une compensation pour le risque, l'approximation d'ordre deux implique que la prime de risque est une combinaison linéaire des volatilités des trois chocs. Les résultats montrent qu'avec les paramètres calibrés, les chocs réels (productivité et préférences) jouent un rôle plus important dans la détermination du niveau de la prime de risque relativement aux chocs monétaires. Je montre que contrairement aux travaux précédents (dans lesquels le capital de production est fixe), l'effet du paramètre de la formation des habitudes sur la prime de risque dépend du degré des coûts d'ajustement du capital. Lorsque les coûts d'ajustement du capital sont élevés au point que le stock de capital est fixe à l'équilibre, une augmentation du paramètre de formation des habitudes entraine une augmentation de la prime de risque. Par contre, lorsque les agents peuvent librement ajuster le stock de capital sans coûts, l'effet du paramètre de la formation des habitudes sur la prime de risque est négligeable. Ce résultat s'explique par le fait que lorsque le stock de capital peut être ajusté sans coûts, cela ouvre un canal additionnel de lissage de consommation pour les agents. Par conséquent, l'effet de la formation des habitudes sur la prime de risque est amoindri. En outre, les résultats montrent que la façon dont la banque centrale conduit sa politique monétaire a un effet sur la prime de risque. Plus la banque centrale est agressive vis-à-vis de l'inflation, plus la prime de risque diminue et vice versa. Cela est due au fait que lorsque la banque centrale combat l'inflation cela entraine une baisse de la variance de l'inflation. Par suite, la prime de risque due au risque d'inflation diminue. Dans le deuxième article, je fais une extension du premier article en utilisant des préférences récursives de type Epstein -- Zin et en permettant aux volatilités conditionnelles des chocs de varier avec le temps. L'emploi de ce cadre est motivé par deux raisons. D'abord des études récentes (Doh, 2010, Rudebusch and Swanson, 2012) ont montré que ces préférences sont appropriées pour l'analyse du prix des actifs dans les modèles d'équilibre général. Ensuite, l'hétéroscedasticité est une caractéristique courante des données économiques et financières. Cela implique que contrairement au premier article, l'incertitude varie dans le temps. Le cadre dans cet article est donc plus général et plus réaliste que celui du premier article. L'objectif principal de cet article est d'examiner l'impact des chocs de volatilités conditionnelles sur le niveau et la dynamique des taux d'intérêt et de la prime de risque. Puisque la prime de risque est constante a l'approximation d'ordre deux, le modèle est résolu par la méthode des perturbations avec une approximation d'ordre trois. Ainsi on obtient une prime de risque qui varie dans le temps. L'avantage d'introduire des chocs de volatilités conditionnelles est que cela induit des variables d'état supplémentaires qui apportent une contribution additionnelle à la dynamique de la prime de risque. Je montre que l'approximation d'ordre trois implique que les primes de risque ont une représentation de type ARCH-M (Autoregressive Conditional Heteroscedasticty in Mean) comme celui introduit par Engle, Lilien et Robins (1987). La différence est que dans ce modèle les paramètres sont structurels et les volatilités sont des volatilités conditionnelles de chocs économiques et non celles des variables elles-mêmes. J'estime les paramètres du modèle par la méthode des moments simulés (SMM) en utilisant des données de l'économie américaine. Les résultats de l'estimation montrent qu'il y a une évidence de volatilité stochastique dans les trois chocs. De plus, la contribution des volatilités conditionnelles des chocs au niveau et à la dynamique de la prime de risque est significative. En particulier, les effets des volatilités conditionnelles des chocs de productivité et de préférences sont significatifs. La volatilité conditionnelle du choc de productivité contribue positivement aux moyennes et aux écart-types des primes de risque. Ces contributions varient avec la maturité des bonds. La volatilité conditionnelle du choc de préférences quant à elle contribue négativement aux moyennes et positivement aux variances des primes de risque. Quant au choc de volatilité de la politique monétaire, son impact sur les primes de risque est négligeable. Le troisième article (coécrit avec Eric Schaling, Alain Kabundi, révisé et resoumis au journal of Economic Modelling) traite de l'hétérogénéité dans la formation des attentes d'inflation de divers groupes économiques et de leur impact sur la politique monétaire en Afrique du sud. La question principale est d'examiner si différents groupes d'agents économiques forment leurs attentes d'inflation de la même façon et s'ils perçoivent de la même façon la politique monétaire de la banque centrale (South African Reserve Bank). Ainsi on spécifie un modèle de prédiction d'inflation qui nous permet de tester l'arrimage des attentes d'inflation à la bande d'inflation cible (3% - 6%) de la banque centrale. Les données utilisées sont des données d'enquête réalisée par la banque centrale auprès de trois groupes d'agents : les analystes financiers, les firmes et les syndicats. On exploite donc la structure de panel des données pour tester l'hétérogénéité dans les attentes d'inflation et déduire leur perception de la politique monétaire. Les résultats montrent qu'il y a évidence d'hétérogénéité dans la manière dont les différents groupes forment leurs attentes. Les attentes des analystes financiers sont arrimées à la bande d'inflation cible alors que celles des firmes et des syndicats ne sont pas arrimées. En effet, les firmes et les syndicats accordent un poids significatif à l'inflation retardée d'une période et leurs prédictions varient avec l'inflation réalisée (retardée). Ce qui dénote un manque de crédibilité parfaite de la banque centrale au vu de ces agents.
Resumo:
A method for the construction of a patient-specific model of a scoliotic torso for surgical planning via inter- patient registration is presented. Magnetic Resonance Images (MRI) of a generic model are registered to surface topography (TP) and X-ray data of a test patient. A partial model is first obtained via thin-plate spline registration between TP and X-ray data of the test patient. The MRIs from the generic model are then fit into the test patient using articulated model registration between the vertebrae of the generic model’s MRIs in prone position and the test patient’s X-rays in standing position. A non-rigid deformation of the soft tissues is performed using a modified thin-plate spline constrained to maintain bone rigidity and to fit in the space between the vertebrae and the surface of the torso. Results show average Dice values of 0.975 ± 0.012 between the MRIs following inter-patient registration and the surface topography of the test patient, which is comparable to the average value of 0.976 ± 0.009 previously obtained following intra-patient registration. The results also show a significant improvement compared to rigid inter-patient registration. Future work includes validating the method on a larger cohort of patients and incorporating soft tissue stiffness constraints. The method developed can be used to obtain a geometric model of a patient including bone structures, soft tissues and the surface of the torso which can be incorporated in a surgical simulator in order to better predict the outcome of scoliosis surgery, even if MRI data cannot be acquired for the patient.
Resumo:
Isotopic and isotonic chains of superheavy nuclei are analyzed to search for spherical double shell closures beyond Z=82 and N=126 within the new effective field theory model of Furnstahl, Serot, and Tang for the relativistic nuclear many-body problem. We take into account several indicators to identify the occurrence of possible shell closures, such as two-nucleon separation energies, two-nucleon shell gaps, average pairing gaps, and the shell correction energy. The effective Lagrangian model predicts N=172 and Z=120 and N=258 and Z=120 as spherical doubly magic superheavy nuclei, whereas N=184 and Z=114 show some magic character depending on the parameter set. The magicity of a particular neutron (proton) number in the analyzed mass region is found to depend on the number of protons (neutrons) present in the nucleus.
Resumo:
In this paper a method of copy detection in short Malayalam text passages is proposed. Given two passages one as the source text and another as the copied text it is determined whether the second passage is plagiarized version of the source text. An algorithm for plagiarism detection using the n-gram model for word retrieval is developed and found tri-grams as the best model for comparing the Malayalam text. Based on the probability and the resemblance measures calculated from the n-gram comparison , the text is categorized on a threshold. Texts are compared by variable length n-gram(n={2,3,4}) comparisons. The experiments show that trigram model gives the average acceptable performance with affordable cost in terms of complexity
Resumo:
When variables in time series context are non-negative, such as for volatility, survival time or wave heights, a multiplicative autoregressive model of the type Xt = Xα t−1Vt , 0 ≤ α < 1, t = 1, 2, . . . may give the preferred dependent structure. In this paper, we study the properties of such models and propose methods for parameter estimation. Explicit solutions of the model are obtained in the case of gamma marginal distribution
Resumo:
The classical methods of analysing time series by Box-Jenkins approach assume that the observed series uctuates around changing levels with constant variance. That is, the time series is assumed to be of homoscedastic nature. However, the nancial time series exhibits the presence of heteroscedasticity in the sense that, it possesses non-constant conditional variance given the past observations. So, the analysis of nancial time series, requires the modelling of such variances, which may depend on some time dependent factors or its own past values. This lead to introduction of several classes of models to study the behaviour of nancial time series. See Taylor (1986), Tsay (2005), Rachev et al. (2007). The class of models, used to describe the evolution of conditional variances is referred to as stochastic volatility modelsThe stochastic models available to analyse the conditional variances, are based on either normal or log-normal distributions. One of the objectives of the present study is to explore the possibility of employing some non-Gaussian distributions to model the volatility sequences and then study the behaviour of the resulting return series. This lead us to work on the related problem of statistical inference, which is the main contribution of the thesis