12 resultados para Mean shift

em Université de Montréal, Canada


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Presently, conditions ensuring the validity of bootstrap methods for the sample mean of (possibly heterogeneous) near epoch dependent (NED) functions of mixing processes are unknown. Here we establish the validity of the bootstrap in this context, extending the applicability of bootstrap methods to a class of processes broadly relevant for applications in economics and finance. Our results apply to two block bootstrap methods: the moving blocks bootstrap of Künsch ( 989) and Liu and Singh ( 992), and the stationary bootstrap of Politis and Romano ( 994). In particular, the consistency of the bootstrap variance estimator for the sample mean is shown to be robust against heteroskedasticity and dependence of unknown form. The first order asymptotic validity of the bootstrap approximation to the actual distribution of the sample mean is also established in this heterogeneous NED context.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

By reporting his satisfaction with his job or any other experience, an individual does not communicate the number of utils that he feels. Instead, he expresses his posterior preference over available alternatives conditional on acquired knowledge of the past. This new interpretation of reported job satisfaction restores the power of microeconomic theory without denying the essential role of discrepancies between one’s situation and available opportunities. Posterior human wealth discrepancies are found to be the best predictor of reported job satisfaction. Static models of relative utility and other subjective well-being assumptions are all unambiguously rejected by the data, as well as an \"economic\" model in which job satisfaction is a measure of posterior human wealth. The \"posterior choice\" model readily explains why so many people usually report themselves as happy or satisfied, why both younger and older age groups are insensitive to current earning discrepancies, and why the past weighs more heavily than the present and the future.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In this paper we propose exact likelihood-based mean-variance efficiency tests of the market portfolio in the context of Capital Asset Pricing Model (CAPM), allowing for a wide class of error distributions which include normality as a special case. These tests are developed in the frame-work of multivariate linear regressions (MLR). It is well known however that despite their simple statistical structure, standard asymptotically justified MLR-based tests are unreliable. In financial econometrics, exact tests have been proposed for a few specific hypotheses [Jobson and Korkie (Journal of Financial Economics, 1982), MacKinlay (Journal of Financial Economics, 1987), Gib-bons, Ross and Shanken (Econometrica, 1989), Zhou (Journal of Finance 1993)], most of which depend on normality. For the gaussian model, our tests correspond to Gibbons, Ross and Shanken’s mean-variance efficiency tests. In non-gaussian contexts, we reconsider mean-variance efficiency tests allowing for multivariate Student-t and gaussian mixture errors. Our framework allows to cast more evidence on whether the normality assumption is too restrictive when testing the CAPM. We also propose exact multivariate diagnostic checks (including tests for multivariate GARCH and mul-tivariate generalization of the well known variance ratio tests) and goodness of fit tests as well as a set estimate for the intervening nuisance parameters. Our results [over five-year subperiods] show the following: (i) multivariate normality is rejected in most subperiods, (ii) residual checks reveal no significant departures from the multivariate i.i.d. assumption, and (iii) mean-variance efficiency tests of the market portfolio is not rejected as frequently once it is allowed for the possibility of non-normal errors.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le but de cette étude était de déterminer la contribution de plusieurs facteurs (le design de la tâche, l’orientation d’angle, la position de la tête et du regard) sur la capacité des sujets à percevoir les différences de formes bidimensionnelles (2-D) en utilisant le toucher haptique. Deux séries d'expériences (n = 12 chacune) ont été effectuées. Dans tous les cas, les angles ont été explorés avec l'index du bras tendu. La première expérience a démontré que le seuil de discrimination des angles 2-D a été nettement plus élevé, 7,4°, que le seuil de catégorisation des angles 2-D, 3,9°. Ce résultat étend les travaux précédents, en montrant que la différence est présente dans les mêmes sujets testés dans des conditions identiques (connaissance des résultats, conditions d'essai visuel, l’orientation d’angle). Les résultats ont également montré que l'angle de catégorisation ne varie pas en fonction de l'orientation des angles dans l'espace (oblique, verticale). Étant donné que les angles présentés étaient tous distribués autour de 90°, ce qui peut être un cas particulier comme dans la vision, cette constatation doit être étendue à différentes gammes d'angles. Le seuil plus élevé dans la tâche de discrimination reflète probablement une exigence cognitive accrue de cette tâche en demandant aux sujets de mémoriser temporairement une représentation mentale du premier angle exploré et de la comparer avec le deuxième angle exploré. La deuxième expérience représente la suite logique d’une expérience antérieure dans laquelle on a constaté que le seuil de catégorisation est modifié avec la direction du regard, mais pas avec la position de la tête quand les angles (non visibles) sont explorés en position excentrique, 60° à la droite de la ligne médiane. Cette expérience a testé l'hypothèse que l'augmentation du seuil, quand le regard est dirigé vers l'extrême droite, pourrait refléter une action de l'attention spatiale. Les sujets ont exploré les angles situés à droite de la ligne médiane, variant systématiquement la direction du regard (loin ou vers l’angle) de même que l'emplacement d'angle (30° et 60° vers la droite). Les seuils de catégorisation n’ont démontré aucun changement parmi les conditions testées, bien que le biais (point d'égalité subjective) ait été modifié (décalage aux valeurs inférieurs à 90°). Puisque notre test avec le regard fixé à l’extrême droite (loin) n'a eu aucun effet sur le seuil, nous proposons que le facteur clé contribuant à l'augmentation du seuil vu précédemment (tête tout droit/regard à droite) doit être cette combinaison particulière de la tête/regard/angles et non l’attention spatiale.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cette thèse examine les impacts sur la morphologie des tributaires du fleuve Saint-Laurent des changements dans leur débit et leur niveau de base engendrés par les changements climatiques prévus pour la période 2010–2099. Les tributaires sélectionnés (rivières Batiscan, Richelieu, Saint-Maurice, Saint-François et Yamachiche) ont été choisis en raison de leurs différences de taille, de débit et de contexte morphologique. Non seulement ces tributaires subissent-ils un régime hydrologique modifié en raison des changements climatiques, mais leur niveau de base (niveau d’eau du fleuve Saint-Laurent) sera aussi affecté. Le modèle morphodynamique en une dimension (1D) SEDROUT, à l’origine développé pour des rivières graveleuses en mode d’aggradation, a été adapté pour le contexte spécifique des tributaires des basses-terres du Saint-Laurent afin de simuler des rivières sablonneuses avec un débit quotidien variable et des fluctuations du niveau d’eau à l’aval. Un module pour simuler le partage des sédiments autour d’îles a aussi été ajouté au modèle. Le modèle ainsi amélioré (SEDROUT4-M), qui a été testé à l’aide de simulations à petite échelle et avec les conditions actuelles d’écoulement et de transport de sédiments dans quatre tributaires du fleuve Saint-Laurent, peut maintenant simuler une gamme de problèmes morphodynamiques de rivières. Les changements d’élévation du lit et d’apport en sédiments au fleuve Saint-Laurent pour la période 2010–2099 ont été simulés avec SEDROUT4-M pour les rivières Batiscan, Richelieu et Saint-François pour toutes les combinaisons de sept régimes hydrologiques (conditions actuelles et celles prédites par trois modèles de climat globaux (MCG) et deux scénarios de gaz à effet de serre) et de trois scénarios de changements du niveau de base du fleuve Saint-Laurent (aucun changement, baisse graduelle, baisse abrupte). Les impacts sur l’apport de sédiments et l’élévation du lit diffèrent entre les MCG et semblent reliés au statut des cours d’eau (selon qu’ils soient en état d’aggradation, de dégradation ou d’équilibre), ce qui illustre l’importance d’examiner plusieurs rivières avec différents modèles climatiques afin d’établir des tendances dans les effets des changements climatiques. Malgré le fait que le débit journalier moyen et le débit annuel moyen demeurent près de leur valeur actuelle dans les trois scénarios de MCG, des changements importants dans les taux de transport de sédiments simulés pour chaque tributaire sont observés. Ceci est dû à l’impact important de fortes crues plus fréquentes dans un climat futur de même qu’à l’arrivée plus hâtive de la crue printanière, ce qui résulte en une variabilité accrue dans les taux de transport en charge de fond. Certaines complications avec l’approche de modélisation en 1D pour représenter la géométrie complexe des rivières Saint-Maurice et Saint-François suggèrent qu’une approche bi-dimensionnelle (2D) devrait être sérieusement considérée afin de simuler de façon plus exacte la répartition des débits aux bifurcations autour des îles. La rivière Saint-François est utilisée comme étude de cas pour le modèle 2D H2D2, qui performe bien d’un point de vue hydraulique, mais qui requiert des ajustements pour être en mesure de pleinement simuler les ajustements morphologiques des cours d’eau.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

"L’auteure Lucie Guibault aborde la question des ""logiciels libres"" dans le cadre des droits d’auteurs et des brevets. Ces logiciels sont des programmes informatiques qui sont gratuitement distribués au public, dont la modification et la redistribution sont fortement encouragées, mais dont la vente ou la commercialisation est découragée ou même carrément prohibée. Ces caractéristiques particulières distinguent les logiciels libres des ""programmes propriétés"" traditionnels, qui se basent sur le principe que le créateur d’un programme en possède les droits de propriété et qu’il est le seul autorisé à le modifier ou le vendre, sous réserve de sa capacité à faire cession de ces droits. Les logiciels libres sont fondés sur une idéologie de coopération, qui promeut la propagation des idées et des connaissances et qui favorise ainsi la création de meilleurs logiciels. L’auteure présente les grandes caractéristiques des trois principales licences de logiciels libres, soit la ""General Public License"", la licence ""Berkeley Software Distribution"" et la ""Mozilla Public License"". Elle soutient que ces logiciels libres et les régimes normatifs qui les encadrent sont à l’origine d’un changement de paradigme au sein des régimes européens et hollandais de protection des droits d’auteurs et des brevets. La première partie de l’article analyse les régimes des droits d’auteur des trois licences de logiciels libres. L’auteure souligne que ces régimes ont été établis en se basant sur la prémisse qu’il n’y a pas de distinction significative entre les créateurs et les utilisateurs de logiciels libres. Les régimes normatifs reflètent cette situation en prévoyant un ensemble de droits et d’obligations pour les utilisateurs dans le cadre de l’utilisation, de la reproduction, de la modification et de la redistribution gratuite des logiciels libres. L’auteur explique comment ces régimes normatifs s’intègrent au sein de la législation européenne et hollandaise, entre autre au niveau du droit de propriété, du droit commercial, du droit des communications et du droit des obligations. L’auteur démontre que, de façon générale, ces régimes normatifs législatifs semblent s’être adéquatement adaptés aux nouvelles réalités posées par les règles de droits d’auteurs des logiciels libres. La seconde partie aborde la problématique du droit des brevets, tel que défini par la législation européenne et hollandaise. La plupart des utilisateurs et créateurs de logiciels libres s’opposent aux régimes de brevets traditionnels, qui limitent l’innovation et les possibilités de développement techniques. L’auteur décrit les différents régimes alternatifs de brevets offerts par les trois licences de logiciels libres. De plus, l’auteur présente l’encadrement légal pour ces nouveaux brevets, tel que défini par les législations européennes et hollandaises. Elle soutient que cet encadrement légal est inadéquat et qu’il n’est pas adapté aux besoins des utilisateurs de logiciels libres."

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le droit international prend de plus en plus d’expansion au sein de la société internationale. En fait, grâce à plusieurs acteurs, le droit international s’étend maintenant à de nombreux domaines tels que l’environnement, le droit humanitaire, l’énergie, etc. Or, parallèlement à cette expansion du droit international, on craint maintenant sa fragmentation. Face à ce nouveau phénomène, il y a lieu de se poser la question suivante : s’il y existe un phénomène de fragmentation du droit international, cela signifie-t-il qu’une unité, qui semblait exister a priori dans ce droit, est en train de disparaître, ou bien assistons-nous plutôt à un changement de paradigme? Pour répondre, à cette interrogation, l’auteur analyse tout d’abord les différents facteurs de fragmentation du droit international et observe que ce droit devient de plus en plus complexe, voire même désordonné. Le tout, à l’opposé de la vision traditionnelle d’unité que l’on a du droit. Quels éléments de solution peuvent alors être apportés pour réduire cette fragmentation? Pour le savoir, l’auteur analyse l’unité du droit en fonction de deux paradigmes : le normativisme et le pluralisme juridique. Dans le premier, c'est la hiérarchie des normes qui va donner lieu à un ordre et à une unité du droit. Dans le second, le droit est perçu comme une institution qui apporte la cohésion et il existe autant d’ordres juridiques qu’il y existe d’institutions. C'est dans ce contexte que naît une certaine unité générale grâce à divers types de rapports entre les différents ordres juridiques. Mais en droit international, l’idée d’organisation hiérarchique des normes ne pourrait englober toute la complexité grandissante de la société pluraliste internationale. C'est pourquoi, l’auteur conclu que la fragmentation du droit international signifie un changement de paradigme : ce n’est plus la théorie normativiste qui permet d’englober la toute la complexité naissante du droit international mais bien la théorie du pluralisme juridique.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le discours sur l’innovation oriente la recherche scientifique médicale publique vers un développement technologique et économique à court terme. À ce titre, la médecine régénératrice est une thérapie innovatrice marquée par une logique d’accumulation spéculative qui porte à la fois sur les cellules humaines et sur la façon de mener la recherche. Or, une réorganisation de la recherche scientifique liée à une nouvelle conception économique de la science et de la technologie ainsi qu’un rôle différent attribué à l’État constituent le cadre institutionnel contemporain qui émerge à la fin des années 1970. Le changement induit par cette idée d’innovation et sur lequel s’attarde ce mémoire porte non pas sur l’usage ou la destination de la science, mais sur l’extension du raisonnement économique. Celui-ci ne survient pas à l’étape du développement, après que la recherche ait été effectuée en vertu du modèle de la « Big Science ». Au contraire, il remonte du marché pour s’installer très tôt au stade de la compréhension des mécanismes biologiques et dans un espace qui relève de la propriété collective : le laboratoire public. Le passage du caractère « exogène » à « endogène » de la recherche scientifique publique vis-à-vis de l’économie est au cœur d’une discussion sur l’hégémonie de la logique de marché.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’archive erronée dans l’œuvre d’Anne Carson enquête sur les effets que peuvent entraîner l’archive classique sur la poésie d’Anne Carson et révèle que le travail de cette dernière est issu de l’espace situé entre la critique et la créativité, ce qui génère ce qu’on appellera une « poétique de l’erreur ». La poésie de Carson se démarque par sa prédilection pour les accidents, les imperfections et les impondérables de la transmission. La présente dissertation émerge des attitudes critiques ambivalentes face à la dualité de l’identité de Carson, autant poète qu’universitaire, et leur offrira une réponse. Alors que l’objectif traditionnel du philologue classique est de reconstruire le sens du texte « original », l’approche poétique de Carson sape en douce les prétentions universitaires d’exactitude, de précision et de totalisation. La rencontre de Carson avec l’archive classique embrasse plutôt les bourdes, les mauvaises lectures et les erreurs de traduction inhérentes à la transmission et à la réception de traductions classiques. La poésie de Carson est ludique, sexuée et politique. Sa manière de jouer avec l’épave du passé classique torpille la patri-archive, telle que critiquée par Derrida dans Mal d’Archive ; c’est-à-dire cette archive considérée comme un point d’origine stable grâce auquel s’orienter. De plus, en remettant en question la notion de l’archive classique en tant qu’origine de la civilisation occidentale, Carson offre simultanément une critique de l’humanisme, en particulier au plan de la stabilité, du caractère mesurable et de l’autonomie de « l’homme ». L’archive, pour Carson, est ouverte, en cours et incomplète ; les manques linguistiques, chronologiques et affectifs de l’archive classique représentent ainsi des sources d’inspiration poétique. La présente dissertation étudie quatre dimensions de l’archive classique : la critique, la saphique, l’élégiaque et l’érotique. Grâce à ces coordonnées, on y établit le statut fragmentaire et fissuré du passé classique, tel que conçu par Carson. Si le fondement classique sur lequel la culture occidentale a été conçue est fissuré, qu’en est-il de la stabilité, des frontières et des catégories que sont le genre, la langue et le texte ? L’ouverture de l’archive critique de manière implicite les désirs de totalité associés au corps du texte, à la narration, à la traduction et à l’érotisme. En offrant une recension exhaustive de sa poétique, L’archive erronée dans l’œuvre d’Anne Carson tente d’analyser l’accueil hostile qu’elle a subi, contribue à renforcer la documentation sans cesse croissante dont elle fait l’objet et anticipe sa transmutation actuelle de médium et de genre, sa migration de la page à la scène.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Study Design Retrospective study of surgical outcome. Objectives To evaluate quantitatively the changes in trunk surface deformities after scoliosis spinal surgery in Lenke 1A adolescent idiopathic scoliosis (AIS) patients and to compare it with changes in spinal measurements. Summary of Background Data Most studies documenting scoliosis surgical outcome used either radiographs to evaluate changes in the spinal curve or questionnaires to assess patients health-related quality of life. Because improving trunk appearance is a major reason for patients and their parents to seek treatment, this study focuses on postoperative changes in trunk surface deformities. Recently, a novel approach to quantify trunk deformities in a reliable, automatic, and noninvasive way has been proposed. Methods Forty-nine adolescents with Lenke 1A idiopathic scoliosis treated surgically were included. The back surface rotation and trunk lateral shift were computed on trunk surface acquisitions before and at least 6 months after surgery. We analyzed the effect of age, height, weight, curve severity, and flexibility before surgery, length of follow-up, and the surgical technique. For 25 patients with available three-dimensional (3D) spinal reconstructions, we compared changes in trunk deformities with changes in two-dimensional (2D) and 3D spinal measurements. Results The mean correction rates for the back surface rotation and the trunk lateral shift are 18% and 50%, respectively. Only the surgical technique had a significant effect on the correction rate of the back surface rotation. Direct vertebral derotation and reduction by spine translation provide a better correction of the rib hump (22% and 31% respectively) than the classic rod rotation technique (8%). The reductions of the lumbar Cobb angle and the apical vertebrae transverse rotation explain, respectively, up to 17% and 16% the reduction of the back surface rotation. Conclusions Current surgical techniques perform well in realigning the trunk; however, the correction of the deformity in the transverse plane proves to be more challenging. More analysis on the positive effect of vertebral derotation on the rib hump correction is needed. Level of evidence III.