25 resultados para quench distortion


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse de doctorat consiste en trois chapitres qui traitent des sujets de choix de portefeuilles de grande taille, et de mesure de risque. Le premier chapitre traite du problème d’erreur d’estimation dans les portefeuilles de grande taille, et utilise le cadre d'analyse moyenne-variance. Le second chapitre explore l'importance du risque de devise pour les portefeuilles d'actifs domestiques, et étudie les liens entre la stabilité des poids de portefeuille de grande taille et le risque de devise. Pour finir, sous l'hypothèse que le preneur de décision est pessimiste, le troisième chapitre dérive la prime de risque, une mesure du pessimisme, et propose une méthodologie pour estimer les mesures dérivées. Le premier chapitre améliore le choix optimal de portefeuille dans le cadre du principe moyenne-variance de Markowitz (1952). Ceci est motivé par les résultats très décevants obtenus, lorsque la moyenne et la variance sont remplacées par leurs estimations empiriques. Ce problème est amplifié lorsque le nombre d’actifs est grand et que la matrice de covariance empirique est singulière ou presque singulière. Dans ce chapitre, nous examinons quatre techniques de régularisation pour stabiliser l’inverse de la matrice de covariance: le ridge, spectral cut-off, Landweber-Fridman et LARS Lasso. Ces méthodes font chacune intervenir un paramètre d’ajustement, qui doit être sélectionné. La contribution principale de cette partie, est de dériver une méthode basée uniquement sur les données pour sélectionner le paramètre de régularisation de manière optimale, i.e. pour minimiser la perte espérée d’utilité. Précisément, un critère de validation croisée qui prend une même forme pour les quatre méthodes de régularisation est dérivé. Les règles régularisées obtenues sont alors comparées à la règle utilisant directement les données et à la stratégie naïve 1/N, selon leur perte espérée d’utilité et leur ratio de Sharpe. Ces performances sont mesurée dans l’échantillon (in-sample) et hors-échantillon (out-of-sample) en considérant différentes tailles d’échantillon et nombre d’actifs. Des simulations et de l’illustration empirique menées, il ressort principalement que la régularisation de la matrice de covariance améliore de manière significative la règle de Markowitz basée sur les données, et donne de meilleurs résultats que le portefeuille naïf, surtout dans les cas le problème d’erreur d’estimation est très sévère. Dans le second chapitre, nous investiguons dans quelle mesure, les portefeuilles optimaux et stables d'actifs domestiques, peuvent réduire ou éliminer le risque de devise. Pour cela nous utilisons des rendements mensuelles de 48 industries américaines, au cours de la période 1976-2008. Pour résoudre les problèmes d'instabilité inhérents aux portefeuilles de grandes tailles, nous adoptons la méthode de régularisation spectral cut-off. Ceci aboutit à une famille de portefeuilles optimaux et stables, en permettant aux investisseurs de choisir différents pourcentages des composantes principales (ou dégrées de stabilité). Nos tests empiriques sont basés sur un modèle International d'évaluation d'actifs financiers (IAPM). Dans ce modèle, le risque de devise est décomposé en deux facteurs représentant les devises des pays industrialisés d'une part, et celles des pays émergents d'autres part. Nos résultats indiquent que le risque de devise est primé et varie à travers le temps pour les portefeuilles stables de risque minimum. De plus ces stratégies conduisent à une réduction significative de l'exposition au risque de change, tandis que la contribution de la prime risque de change reste en moyenne inchangée. Les poids de portefeuille optimaux sont une alternative aux poids de capitalisation boursière. Par conséquent ce chapitre complète la littérature selon laquelle la prime de risque est importante au niveau de l'industrie et au niveau national dans la plupart des pays. Dans le dernier chapitre, nous dérivons une mesure de la prime de risque pour des préférences dépendent du rang et proposons une mesure du degré de pessimisme, étant donné une fonction de distorsion. Les mesures introduites généralisent la mesure de prime de risque dérivée dans le cadre de la théorie de l'utilité espérée, qui est fréquemment violée aussi bien dans des situations expérimentales que dans des situations réelles. Dans la grande famille des préférences considérées, une attention particulière est accordée à la CVaR (valeur à risque conditionnelle). Cette dernière mesure de risque est de plus en plus utilisée pour la construction de portefeuilles et est préconisée pour compléter la VaR (valeur à risque) utilisée depuis 1996 par le comité de Bâle. De plus, nous fournissons le cadre statistique nécessaire pour faire de l’inférence sur les mesures proposées. Pour finir, les propriétés des estimateurs proposés sont évaluées à travers une étude Monte-Carlo, et une illustration empirique en utilisant les rendements journaliers du marché boursier américain sur de la période 2000-2011.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les deux premiers romans de Michel Folco, Dieu et nous seuls pouvons (1991) et Un loup est un loup (1995), ont reçu un très bon accueil du public et de la presse, mais ont été pratiquement ignorés par la critique universitaire. Ces romans historiques méritent pourtant qu’on les étudie. Cet admirateur de Dumas propose des romans d’aventures d’inspiration historique, qui en apparence sont construits dans la plus pure tradition du genre. Or, les textes sont plus complexes qu’il n’y paraît : ils ont absorbé un intertexte fort et multiple, incorporé des fantasmatiques sociales inquiétantes, offrent une représentation originale du rapport entre l’être humain et la nature. Centrés autour des figures du bourreau et du loup, ils présentent un traitement singulier de ces symboles du mal et remettent en question la haine ancestrale dont ils sont l’objet. Dans un univers romanesque hanté par le motif de la vengeance, c’est l’ensemble de la société qui est représentée comme violente, intolérante et cruelle. La notion de mal est questionnée, redéfinie, déplacée. C’est ce déplacement qui est l’objet de ce mémoire, lequel se donne pour but de montrer comment les textes travaillent des récits historiques ainsi que des représentations mythiques et religieuses.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction : Après un traitement orthodontique, la rétention (ou contention) est essentielle pour éviter les récidives vers la malocclusion initiale. Le fil de rétention lingual est un appareil fixe, relativement facile à installer et bien accepté par les patients pour maintenir la position finale des dents antérieures inférieures. Étant de plus en plus utilisé, il devient important de s’assurer de sa fiabilité pour la stabilité de l’alignement dentaire. Objectif : Le but de cette étude clinique randomisée prospective est de déterminer le taux de survie d’un fil lingual mandibulaire de rétention en comparant les méthodes de collage direct et de collage indirect à court et moyen termes. Méthodologie : L’échantillon est constitué de 117 patients consécutifs aléatoirement distribués dans 2 groupes : collage direct (n=58) et collage indirect (n=59). Les fils torsadés de diamètre 0,0175’’ sont préformés par un technicien de laboratoire soit selon la méthode de collage direct, soit selon la méthode de collage indirect. Une matrice de transfert en silicone assure le positionnement précis du fil lingual en bouche. Assure® et Filtek™ Flow ont été utilisés pour le collage direct. Filtek™ Flow, Assure®, and Sondhi™ ont été utilisés pour le collage indirect. Les fils de rétention ont été évalués pour le décollement, l’infiltration, la distorsion et le bris à 2 mois (T1) et 6 mois (T2). Résultats : À T1, le taux de survie du fil de rétention est de 90,2% pour le groupe de collage direct, comparativement à 79,5% pour le groupe de collage indirect (p=0,232). À T2, le fil est resté intact pour 74,1% des participants dans le groupe de collage direct et pour 70,0% des participants dans le groupe de collage indirect (p=0,481). Les différences ne sont pas statistiquement significatives entre les 2 groupes. La fréquence du décollement est plus haute que les autres problèmes enregistrés à T1 (p<0,022), représentant 85,7% des échecs. À T2, le décollement est plus fréquent que la distorsion ou le bris (p<0,04), mais pas statistiquement plus fréquent que l’infiltration (p=0,109). Il représente alors 86,4% des échecs. Conclusion : Le décollement est la principale cause d’échec d’un fil de rétention lingual. Il n’y a pas de différence statistiquement significative du taux de survie d’un fil lingual mandibulaire de rétention entre les techniques de collage direct et de collage indirect à court et moyen termes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cet ouvrage traite d’une méthodologie pour l’induction de centres stéréogènes au sein des motifs propionates par la chimie des radicaux et de son application à la synthèse totale du méthyl ester de la zincophorine. Cet ionophore, aux propriétés biologiques intéressantes, présente plusieurs défis synthétiques dont une séquence de type polypropionate anti, anti, anti, anti difficilement accessible ainsi qu’un tétrahydropyrane trans trisubstitué. Récemment, l’intérêt renouvelé pour ces composés polyéthers, en tant qu’agents anticancéreux, accentue l’importance de stratégies versatiles permettant l’accès à ces structures ainsi qu’à leurs analogues. Depuis quelques années, notre groupe s’intéresse à la synthèse d’unités propionates acycliques par une séquence réactionnelle contrôlée uniquement par le substrat. La première étape découle d’une aldolisation de Mukaiyama entre un aldéhyde alpha-chiral et un énoxysilane tétrasubstitué portant une liaison carbone-halogène, et où l’issue stéréochimique dépend de la nature monodentate ou bidentate de l’acide de Lewis employé. La seconde réaction-clé implique la formation d’un radical tertiaire, vicinal à un ester, pouvant être réduit diastéréosélectivement en présence d’hydrure d’étain. La première section décrit l’élaboration de motifs tétrahydropyranes trisubstitués et l’induction des centres stéréogènes vicinaux par une réduction radicalaire. Nous avons révélé que l’issue diastéréosélective de la réaction de cyclisation par une iodoéthérification était dictée par le groupement gamma-méthyle des esters alpha,beta-insaturés de départ. Nous avons ensuite démontré que les produits de la réaction radicalaire anti et syn pouvaient être obtenus sélectivement à partir d’un intermédiaire commun, respectivement en prenant appui sur l’effet exocyclique ou endocyclique lors de la réduction. Par une stratégie complémentaire, nous avons révélé que le précurseur radicalaire pouvait également être obtenu par une réaction de cycloéthérification en présence d’un énoxysilane tétrasubstitué. Une étude systématique des substituants du cycle a révélé que certaines relations stéréochimiques conduisaient à une perte de sélectivité au détriment du produit anti. La seconde section concerne l’étude DFT au niveau BHandHLYP/TZVP des intermédiaires radicalaires impliqués lors du transfert d’hydrogène. Par une étude de décomposition de l’énergie d’activation, nous avons été en mesure de rationaliser l’issue diastéréosélective de la réaction sur la base des énergies de distorsion (∆Ed‡) et d’interaction (∆Eint‡) requises pour accéder à la paire d’états de transition pro-anti et pro-syn. De plus, nous avons démontré qu’une analyse NBO permettait de relativiser l’impact des interactions stéréoélectroniques. Par la suite, l’évaluation des intermédiaires radicalaires borinates et aluminates nous a permis de révéler que l’encombrement stérique de la chaîne propionate était la cause principale de la formation sélective des produits anti ou syn lors d’une réduction en présence d’un acide de Lewis. La dernière section décrit l’élaboration de la séquence polypropionate de la zincophorine, et de ses isomères, à partir du fragment tétrahydropyrane substitué. Au cours de notre étude, nous avons identifié que le nombre de sites de chélation potentiels devait être limité à trois lors de l’aldolisation en condition Cram-chélate. De plus, nous avons démontré que les différents motifs acétates sont accessibles sélectivement par l’utilisation d’un énoxysilane encombré. Par ailleurs, nous avons révélé qu’une même séquence réactionnelle pouvait être employée pour la synthèse du fragment C17–C25 de son analogue naturel CP-78,545, et avons complété la plus récente synthèse totale du méthyl ester de la zincophorine.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

De nombreux chercheurs et cliniciens sont sceptiques quant à la validité des questionnaires autoadministrés, lorsqu’utilisés auprès d’une population carcérale (Gendreau, Irvine et Knight, 1973), surtout si celle-ci est composée de délinquants sexuels (Marshall et Hall, 1995). La sensibilité des sujets investigués jumelés à la transparence des questions expose l’évaluateur à la possibilité que le participant dissimule et modifie ses réponses (Tierney et McCabe, 2001). L’objectif de ce projet est de comprendre les processus impliqués dans la performance des participants à une évaluation autoadministrée. Les données de 282 délinquants sexuels ayant complétés le Multidimensional Inventory of Development, Sex, and Agression (MIDSA) ont été analysées afin de mieux comprendre l’interaction entre les échelles de désirabilité sociale, les temps de latence et les coefficients d’ajustement du modèle de Rasch. La convergence des analyses de temps de latence et des échelles de désirabilité sociale semble indiquer que certains participants dissimuleraient consciemment leurs réponses. Notamment, les participants détectés par les échelles de désirabilité sociales sembleraient répondre de manière de plus lente aux échelles d’évaluations, et certains d’entre eux offriraient des patrons de réponses incohérents à la prescription du modèle de Rasch. Les hypothèses permettant d’expliquer les potentiels mécanismes liés à la dissimulation seront discutées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’époque actuelle se caractérise par un processus de sécularisation irrésolu. Les inconsistances de notre modernité relèvent à la fois d’une dissolution de l’hégémonie de la religion en occident et d’une diversification de régimes de valeurs, croyances et représentations ayant pour effet la persistance de différends idéologiques que le phénomène de globalisation à la fois accentue et résorbe sans les abolir. Cette thèse examine la pertinence de la traduction pour interroger les fondements littéraires des enjeux esthétiques et politiques de cette condition. En tant que procédé poïétique, modèle de subjectivité éthique et figure de pensée, la traduction constitue un dispositif littéraire intimement relié au problème de la sécularisation. Chacune des études qui composent la thèse cherche à approfondir, dans une perspective comparatiste, une intuition de base : le mode de dépossession inhérent au fait littéraire de traduire permet d’appréhender un certain ethos séculier dont le caractère historique ne serait pas totalement coupé d’un rapport à la transcendance dans le contexte de l’économie culturelle globale. Le problème de la traduction est abordé à partir de deux axes principaux : la distorsion de la tradition religieuse par la formation d’une religiosité d’ordre littéraire (un ethos séculier) et la distorsion d’un certain humanisme d’après l’expérience catastrophique et la manière dont cet ethos permet d’y survivre. Cette thèse vise à dégager de l’idée de traduction une capacité de régénérer un rapport éthique à autrui par la construction de liens inédits avec le passé et l’avenir ; une attention à la finitude humaine caractérisée par une disposition critique et affective face à ces artefacts humains que nous nommons littérature. Les écrits de la poète et traductrice Anne Carson jouent un rôle déterminant dans le cadre de cette recherche puisqu’ils exemplifient une capacité singulière de faire usage de la tradition qui permet d’envisager, ultimement, une régénération de la question du sens de l’humain, c’est-à-dire, d’une pensée sensible à l’inhumain entre nous.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Full Text / Article complet

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Réalisé sous la co-direction de Pierre Tremblay

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La modélisation géométrique est importante autant en infographie qu'en ingénierie. Notre capacité à représenter l'information géométrique fixe les limites et la facilité avec laquelle on manipule les objets 3D. Une de ces représentations géométriques est le maillage volumique, formé de polyèdres assemblés de sorte à approcher une forme désirée. Certaines applications, tels que le placage de textures et le remaillage, ont avantage à déformer le maillage vers un domaine plus régulier pour faciliter le traitement. On dit qu'une déformation est \emph{quasi-conforme} si elle borne la distorsion. Cette thèse porte sur l’étude et le développement d'algorithmes de déformation quasi-conforme de maillages volumiques. Nous étudions ces types de déformations parce qu’elles offrent de bonnes propriétés de préservation de l’aspect local d’un solide et qu’elles ont été peu étudiées dans le contexte de l’informatique graphique, contrairement à leurs pendants 2D. Cette recherche tente de généraliser aux volumes des concepts bien maitrisés pour la déformation de surfaces. Premièrement, nous présentons une approche linéaire de la quasi-conformité. Nous développons une méthode déformant l’objet vers son domaine paramétrique par une méthode des moindres carrés linéaires. Cette méthode est simple d'implémentation et rapide d'exécution, mais n'est qu'une approximation de la quasi-conformité car elle ne borne pas la distorsion. Deuxièmement, nous remédions à ce problème par une approche non linéaire basée sur les positions des sommets. Nous développons une technique déformant le domaine paramétrique vers le solide par une méthode des moindres carrés non linéaires. La non-linéarité permet l’inclusion de contraintes garantissant l’injectivité de la déformation. De plus, la déformation du domaine paramétrique au lieu de l’objet lui-même permet l’utilisation de domaines plus généraux. Troisièmement, nous présentons une approche non linéaire basée sur les angles dièdres. Cette méthode définit la déformation du solide par les angles dièdres au lieu des positions des sommets du maillage. Ce changement de variables permet une expression naturelle des bornes de distorsion de la déformation. Nous présentons quelques applications de cette nouvelle approche dont la paramétrisation, l'interpolation, l'optimisation et la compression de maillages tétraédriques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans ce mémoire de recherche-création, j’aborde la question du stéréotype en insistant sur le potentiel créatif des figures doxiques et en démontrant leur rapport avec la littérarité et le pouvoir (en terme foucaldien) au moyen d’une création et d’un essai : L’expérience du torse est un court roman (dont la fin est ici absente) qui relate les premiers jours liés à l’affaire Magnotta en jouant avec les conventions du romanesque traditionnel ; l’essai L’expérience du texte démontre pour sa part comment la reprise du stéréotype rassure et crée un univers stable dans le roman Je m’en vais de Jean Échenoz, alors que sa déformation déjoue les attentes du lecteur en dénonçant le préfabriqué et en proposant un dépassement poétique. Autant ma création que mon essai s’appliquent à démontrer que le langage est pouvoir et qu’il agit sur le pouvoir.