977 resultados para exponentially weighted moving average


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Globalization has resulted in large-scale international and local assessments closely tied to notions of accountability and competitiveness in a globalized economy. Although policy makers seek to ensure citizens meet the demands of a global knowledge-based economy, such assessments may also impede the development of requisite 21st century skills. While standardization currently is viewed as the most effective measurement of student achievement, several Canadian and international jurisdictions are moving toward assessment for learning (AfL). This conceptual study sought to identify whether AfL or standardized assessment most effectively meets 21st century learning goals in the wake of rapid global change. It applies a Story Model theoretical framework to understand the current, the new emerging, and the future ideal story of education from a personal, cultural, and global lens. The study examines the main critiques and/or challenges of standardized testing, the benefits of AfL for student learning, and new teaching and assessment approaches to the development of 21st century learning goals. The study applies the Story Model’s inside-outside/past-future approach to determine the future direction of assessment. Results show that the new story of assessment will most likely entail a model that integrates both standardized testing and in-class assessments in the form of AfL and PBL.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A moving advertisement for Garden City Dye Works, reads: We have removed from No. 70, St. Paul St. to No. 125 St. Paul St. Opp. the Grand Central Hotel, where we will be pleased to see our old and many new customers. Remember the place. In our new quarters we are better able to meet the requirements of the public in our line. We are up-to-date in all branches of Cleaning and Dying Ladies' and Gent's wearing apparel. Garden City Works, J.L. Wilbur. 125 St. Paul St. Phone 54. P.S. Also agents for Parisian Laundry Co.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

For inviscid fluid flow in any n-dimensional Riemannian manifold, new conserved vorticity integrals generalizing helicity, enstrophy, and entropy circulation are derived for lower-dimensional surfaces that move along fluid streamlines. Conditions are determined for which the integrals yield constants of motion for the fluid. In the case when an inviscid fluid is isentropic, these new constants of motion generalize Kelvin’s circulation theorem from closed loops to closed surfaces of any dimension.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This paper explores how internationalization is understood and experienced in German academic libraries. Its main purpose is to move the discussion of internationalization in academic libraries beyond the boundaries of English-speaking North America by investigating a European perspective. Its secondary purpose is to investigate the role of English in German academic libraries. An online survey and a series of in-person interviews conducted in Germany in April 2015 provided the data for this study. What emerged are a series of stated differences and similarities between North America and Germany informed by the two overarching themes of implicit internationalization and plurilingualism, the ability to switch from one language to another as required.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Note from the Port Dalhousie and Thorold Railway to Mrs. E. Parnell with prices for digging a well, moving a hog pen and repairing a fence, n.d.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La mesure traditionnelle de la criminalité (taux pour 100 000 habitants) pose problème dans l'analyse des variations de la criminalité dans le temps ou l'espace. Le problème est dû au fait que le taux de criminalité est essentiellement déterminé par des infractions moins graves et très fréquentes. La présente étude a permis de tester l’utilité du nouvel outil développé par Statistique Canada qui procure un index de « gravité de la criminalité » dans lequel chaque crime est pondéré par son score de gravité (basé sur les décisions sentencielles moyennes au Canada de 2002 à 2007 pour chaque forme de crime). Appliquées aux statistiques officielles du Québec de 1977 à 2008, nos analyses montrent que l’indice de gravité s’avère une mesure utile pour dresser un portrait plus juste des tendances des crimes violents d’une année à l’autre. Plus exactement, l’indice de gravité montre que le taux de crimes violents est demeuré stable de 1977 à 1992 contrairement à l'image fournie par le taux traditionnel qui montre plutôt une montée fulgurante durant cette période. L’indice de gravité peut également être utile à l’égard des crimes violents pour comparer plus adéquatement les territoires entre eux afin d’établir ceux qui présentent une criminalité plus grave. Cependant, à l’égard de la criminalité globale et des crimes sans violence, l’indice de gravité n’est d’aucune utilité et présente la même lecture de la criminalité que la mesure traditionnelle. Cela s’explique par le fait que ce sont toujours les mêmes infractions (les vols, les méfaits et les introductions par effraction) qui contribuent majoritairement à chacune des deux mesures de la criminalité.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’intérêt principal de cette recherche porte sur la validation d’une méthode statistique en pharmaco-épidémiologie. Plus précisément, nous allons comparer les résultats d’une étude précédente réalisée avec un devis cas-témoins niché dans la cohorte utilisé pour tenir compte de l’exposition moyenne au traitement : – aux résultats obtenus dans un devis cohorte, en utilisant la variable exposition variant dans le temps, sans faire d’ajustement pour le temps passé depuis l’exposition ; – aux résultats obtenus en utilisant l’exposition cumulative pondérée par le passé récent ; – aux résultats obtenus selon la méthode bayésienne. Les covariables seront estimées par l’approche classique ainsi qu’en utilisant l’approche non paramétrique bayésienne. Pour la deuxième le moyennage bayésien des modèles sera utilisé pour modéliser l’incertitude face au choix des modèles. La technique utilisée dans l’approche bayésienne a été proposée en 1997 mais selon notre connaissance elle n’a pas été utilisée avec une variable dépendante du temps. Afin de modéliser l’effet cumulatif de l’exposition variant dans le temps, dans l’approche classique la fonction assignant les poids selon le passé récent sera estimée en utilisant des splines de régression. Afin de pouvoir comparer les résultats avec une étude précédemment réalisée, une cohorte de personnes ayant un diagnostique d’hypertension sera construite en utilisant les bases des données de la RAMQ et de Med-Echo. Le modèle de Cox incluant deux variables qui varient dans le temps sera utilisé. Les variables qui varient dans le temps considérées dans ce mémoire sont iv la variable dépendante (premier évènement cérébrovasculaire) et une des variables indépendantes, notamment l’exposition

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L'interface cerveau-ordinateur (ICO) décode les signaux électriques du cerveau requise par l’électroencéphalographie et transforme ces signaux en commande pour contrôler un appareil ou un logiciel. Un nombre limité de tâches mentales ont été détectés et classifier par différents groupes de recherche. D’autres types de contrôle, par exemple l’exécution d'un mouvement du pied, réel ou imaginaire, peut modifier les ondes cérébrales du cortex moteur. Nous avons utilisé un ICO pour déterminer si nous pouvions faire une classification entre la navigation de type marche avant et arrière, en temps réel et en temps différé, en utilisant différentes méthodes. Dix personnes en bonne santé ont participé à l’expérience sur les ICO dans un tunnel virtuel. L’expérience fut a était divisé en deux séances (48 min chaque). Chaque séance comprenait 320 essais. On a demandé au sujets d’imaginer un déplacement avant ou arrière dans le tunnel virtuel de façon aléatoire d’après une commande écrite sur l'écran. Les essais ont été menés avec feedback. Trois électrodes ont été montées sur le scalp, vis-à-vis du cortex moteur. Durant la 1re séance, la classification des deux taches (navigation avant et arrière) a été réalisée par les méthodes de puissance de bande, de représentation temporel-fréquence, des modèles autorégressifs et des rapports d’asymétrie du rythme β avec classificateurs d’analyse discriminante linéaire et SVM. Les seuils ont été calculés en temps différé pour former des signaux de contrôle qui ont été utilisés en temps réel durant la 2e séance afin d’initier, par les ondes cérébrales de l'utilisateur, le déplacement du tunnel virtuel dans le sens demandé. Après 96 min d'entrainement, la méthode « online biofeedback » de la puissance de bande a atteint une précision de classification moyenne de 76 %, et la classification en temps différé avec les rapports d’asymétrie et puissance de bande, a atteint une précision de classification d’environ 80 %.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cette thèse de doctorat consiste en trois chapitres qui traitent des sujets de choix de portefeuilles de grande taille, et de mesure de risque. Le premier chapitre traite du problème d’erreur d’estimation dans les portefeuilles de grande taille, et utilise le cadre d'analyse moyenne-variance. Le second chapitre explore l'importance du risque de devise pour les portefeuilles d'actifs domestiques, et étudie les liens entre la stabilité des poids de portefeuille de grande taille et le risque de devise. Pour finir, sous l'hypothèse que le preneur de décision est pessimiste, le troisième chapitre dérive la prime de risque, une mesure du pessimisme, et propose une méthodologie pour estimer les mesures dérivées. Le premier chapitre améliore le choix optimal de portefeuille dans le cadre du principe moyenne-variance de Markowitz (1952). Ceci est motivé par les résultats très décevants obtenus, lorsque la moyenne et la variance sont remplacées par leurs estimations empiriques. Ce problème est amplifié lorsque le nombre d’actifs est grand et que la matrice de covariance empirique est singulière ou presque singulière. Dans ce chapitre, nous examinons quatre techniques de régularisation pour stabiliser l’inverse de la matrice de covariance: le ridge, spectral cut-off, Landweber-Fridman et LARS Lasso. Ces méthodes font chacune intervenir un paramètre d’ajustement, qui doit être sélectionné. La contribution principale de cette partie, est de dériver une méthode basée uniquement sur les données pour sélectionner le paramètre de régularisation de manière optimale, i.e. pour minimiser la perte espérée d’utilité. Précisément, un critère de validation croisée qui prend une même forme pour les quatre méthodes de régularisation est dérivé. Les règles régularisées obtenues sont alors comparées à la règle utilisant directement les données et à la stratégie naïve 1/N, selon leur perte espérée d’utilité et leur ratio de Sharpe. Ces performances sont mesurée dans l’échantillon (in-sample) et hors-échantillon (out-of-sample) en considérant différentes tailles d’échantillon et nombre d’actifs. Des simulations et de l’illustration empirique menées, il ressort principalement que la régularisation de la matrice de covariance améliore de manière significative la règle de Markowitz basée sur les données, et donne de meilleurs résultats que le portefeuille naïf, surtout dans les cas le problème d’erreur d’estimation est très sévère. Dans le second chapitre, nous investiguons dans quelle mesure, les portefeuilles optimaux et stables d'actifs domestiques, peuvent réduire ou éliminer le risque de devise. Pour cela nous utilisons des rendements mensuelles de 48 industries américaines, au cours de la période 1976-2008. Pour résoudre les problèmes d'instabilité inhérents aux portefeuilles de grandes tailles, nous adoptons la méthode de régularisation spectral cut-off. Ceci aboutit à une famille de portefeuilles optimaux et stables, en permettant aux investisseurs de choisir différents pourcentages des composantes principales (ou dégrées de stabilité). Nos tests empiriques sont basés sur un modèle International d'évaluation d'actifs financiers (IAPM). Dans ce modèle, le risque de devise est décomposé en deux facteurs représentant les devises des pays industrialisés d'une part, et celles des pays émergents d'autres part. Nos résultats indiquent que le risque de devise est primé et varie à travers le temps pour les portefeuilles stables de risque minimum. De plus ces stratégies conduisent à une réduction significative de l'exposition au risque de change, tandis que la contribution de la prime risque de change reste en moyenne inchangée. Les poids de portefeuille optimaux sont une alternative aux poids de capitalisation boursière. Par conséquent ce chapitre complète la littérature selon laquelle la prime de risque est importante au niveau de l'industrie et au niveau national dans la plupart des pays. Dans le dernier chapitre, nous dérivons une mesure de la prime de risque pour des préférences dépendent du rang et proposons une mesure du degré de pessimisme, étant donné une fonction de distorsion. Les mesures introduites généralisent la mesure de prime de risque dérivée dans le cadre de la théorie de l'utilité espérée, qui est fréquemment violée aussi bien dans des situations expérimentales que dans des situations réelles. Dans la grande famille des préférences considérées, une attention particulière est accordée à la CVaR (valeur à risque conditionnelle). Cette dernière mesure de risque est de plus en plus utilisée pour la construction de portefeuilles et est préconisée pour compléter la VaR (valeur à risque) utilisée depuis 1996 par le comité de Bâle. De plus, nous fournissons le cadre statistique nécessaire pour faire de l’inférence sur les mesures proposées. Pour finir, les propriétés des estimateurs proposés sont évaluées à travers une étude Monte-Carlo, et une illustration empirique en utilisant les rendements journaliers du marché boursier américain sur de la période 2000-2011.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’étude de la sexualité dans le contexte des maladies neurologiques est un domaine émergent qui nous permet de mieux comprendre les corrélats cérébraux et neurocomportementaux de divers aspects de la sexualité. Les changements au sujet de la sexualité sont fréquents à la suite de troubles neurologiques tels que les blessures de la moelle épinière, la sclérose en plaques, l’accident vasculaire cérébral, l'épilepsie et les traumatismes craniocérébraux (TCC). Compte tenu de la complexité de la sexualité après un TCC, celle-ci doit être analysée à partir d'une perspective biopsychosociale qui comprend trois facteurs interdépendants : a) les facteurs neuropsychologiques et psychologiques, b) les variables médicales et physiques, et c) les facteurs relationnels. L’objectif de cette thèse était d’étudier certains éléments de la sexualité auprès de personnes ayant subi un TCC afin de fournir des preuves empiriques pour contribuer à la validation d’une perspective biopsychosociale de la sexualité après un TCC. Trois études quantitatives originales ont été effectuées auprès de personnes ayant subi un TCC léger, modéré ou grave et ayant reçu des services de réadaptation post-TCC, et d’un groupe de témoins en bonne santé, tous vivant dans la communauté. Les groupes étaient comparables en ce qui concerne l’âge, le sexe, le nombre d’années de scolarité, le statut d’emploi et relationnel, et le revenu annuel. Les variables ciblant la sexualité, incluses dans cette thèse, étaient la qualité de vie sexuelle, le comportement sexuel à risque, et la sociosexualité (p. ex., les différences individuelles en ce qui concerne la volonté d’une personne à avoir des relations sexuelles sans engagement). Les variables neuropsychologiques et psychologiques incluaient les fonctions exécutives, la dépression et l’anxiété. Les aspects médicaux et physiques englobaient les symptômes postcommotionnels. Les facteurs relationnels comprenaient les attitudes envers l'infidélité. Les résultats démontrent que par rapport aux témoins en santé, les individus avec un TCC ont montré une diminution de la qualité de vie sexuelle, alors que les groupes étaient comparables sur le plan du comportement sexuel à risque, de la sociosexualité et des attitudes envers l'infidélité. Par ailleurs, les résultats ont montré une différence entre les hommes et les femmes sur le plan de la sociosexualité (p. ex., plus restrictive chez la femme). Chez les personnes ayant subi un TCC, une faible qualité de vie sexuelle était significativement associée à un nombre élevé de symptômes postcommotionnels, un comportement sexuel plus à risque corrélait avec une plus grande fréquence de symptômes dysexécutifs, et une plus faible acceptation de l'infidélité était liée à une sociosexualité moins restrictive. Les résultats de ces trois études soutiennent une perspective biopsychosociale de la sexualité après le TCC. Elles apportent des connaissances nouvelles en ce qui a trait aux domaines de la sexualité qui peuvent être touchés après un TCC, ainsi qu’à certaines variables neuropsychologiques et psychologiques, médicales et physiques, et relationnelles qui sont associées à ces changements. Les implications théoriques, ainsi que pour la pratique clinique et la réadaptation sont discutées. Les limitations des études sont présentées et des recommandations pour la recherche sont proposées. Le modèle biopsychosocial peut être utilisé comme une référence pour guider la recherche future dans ce domaine. D’autres études sur la sexualité et le développement d'interventions multidisciplinaires dans ce domaine pour les personnes TCC sont nécessaires.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

School of Management Studies,Cochin University of Science and Technology

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The present study gave emphasis on characterizing continuous probability distributions and its weighted versions in univariate set up. Therefore a possible work in this direction is to study the properties of weighted distributions for truncated random variables in discrete set up. The problem of extending the measures into higher dimensions as well as its weighted versions is yet to be examined. As the present study focused attention to length-biased models, the problem of studying the properties of weighted models with various other weight functions and their functional relationships is yet to be examined.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The average availability of a repairable system is the expected proportion of time that the system is operating in the interval [0, t]. The present article discusses the nonparametric estimation of the average availability when (i) the data on 'n' complete cycles of system operation are available, (ii) the data are subject to right censorship, and (iii) the process is observed upto a specified time 'T'. In each case, a nonparametric confidence interval for the average availability is also constructed. Simulations are conducted to assess the performance of the estimators.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This work aims to study the variation in subduction zone geometry along and across the arc and the fault pattern within the subducting plate. Depth of penetration as well as the dip of the Benioff zone varies considerably along the arc which corresponds to the curvature of the fold- thrust belt which varies from concave to convex in different sectors of the arc. The entire arc is divided into 27 segments and depth sections thus prepared are utilized to investigate the average dip of the Benioff zone in the different parts of the entire arc, penetration depth of the subducting lithosphere, the subduction zone geometry underlying the trench, the arctrench gap, etc.The study also describes how different seismogenic sources are identified in the region, estimation of moment release rate and deformation pattern. The region is divided into broad seismogenic belts. Based on these previous studies and seismicity Pattern, we identified several broad distinct seismogenic belts/sources. These are l) the Outer arc region consisting of Andaman-Nicobar islands 2) the back-arc Andaman Sea 3)The Sumatran fault zone(SFZ)4)Java onshore region termed as Jave Fault Zone(JFZ)5)Sumatran fore arc silver plate consisting of Mentawai fault(MFZ)6) The offshore java fore arc region 7)The Sunda Strait region.As the Seismicity is variable,it is difficult to demarcate individual seismogenic sources.Hence, we employed a moving window method having a window length of 3—4° and with 50% overlapping starting from one end to the other. We succeeded in defining 4 sources each in the Andaman fore arc and Back arc region, 9 such sources (moving windows) in the Sumatran Fault zone (SFZ), 9 sources in the offshore SFZ region and 7 sources in the offshore Java region. Because of the low seismicity along JFZ, it is separated into three seismogenic sources namely West Java, Central Java and East Java. The Sunda strait is considered as a single seismogenic source.The deformation rates for each of the seismogenic zones have been computed. A detailed error analysis of velocity tensors using Monte—Carlo simulation method has been carried out in order to obtain uncertainties. The eigen values and the respective eigen vectors of the velocity tensor are computed to analyze the actual deformation pattem for different zones. The results obtained have been discussed in the light of regional tectonics, and their implications in terms of geodynamics have been enumerated.ln the light of recent major earthquakes (26th December 2004 and 28th March 2005 events) and the ongoing seismic activity, we have recalculated the variation in the crustal deformation rates prior and after these earthquakes in Andaman—Sumatra region including the data up to 2005 and the significant results has been presented.ln this chapter, the down going lithosphere along the subduction zone is modeled using the free air gravity data by taking into consideration the thickness of the crustal layer, the thickness of the subducting slab, sediment thickness, presence of volcanism, the proximity of the continental crust etc. Here a systematic and detailed gravity interpretation constrained by seismicity and seismic data in the Andaman arc and the Andaman Sea region in order to delineate the crustal structure and density heterogeneities a Io nagnd across the arc and its correlation with the seismogenic behaviour is presented.