5 resultados para Savings and Loan Bailout, 1989-1995.
em Université de Montréal, Canada
Resumo:
Ce mémoire part du constat que l’histoire et, a fortiori, la mémoire ont été largement sollicitées par le discours officiel français au moment et au lendemain de la réunification allemande. La fin définitive de l’après-guerre et le retour à la souveraineté diplomatique de l’Allemagne suscitent en France des questions qui inquiètent – en raison notamment du souvenir de l’histoire – et raniment la volonté d’encadrer la puissance allemande dans la communauté européenne. Pour comprendre le rôle que la mémoire a pu tenir dans la diplomatie française, l’étude tente d’analyser l’usage que les responsables français ont fait du passé en tant qu’instrument de la politique étrangère et le poids qu’il a représenté dans la vision française de l’unification allemande. Ce mémoire démontre que l’entendement du passé se conforme, sous toutes ses expressions, à la politique européenne de la France. Il atteste également que la France se saisit de ce moment charnière pour structurer un espace européen qui fait écho aux principes universalistes issus de la Révolution française, lesquels doivent être désormais portés par le binôme franco-allemand. L’invention de la tradition et l’usage métaphorique du passé répondent d’une préoccupation politique de réconciliation franco-allemande et accompagnent la mise en place d’un patriotisme historique sur lequel pourront s’établir les identités civique et juridique européennes. La mémoire officielle, qui est entièrement orientée vers la promotion et la justification de l’avenir communautaire, dénature certaines données historiques de manière à exorciser le présent d’un passé encombrant. Les limites de la mémoire officielle se trouvent donc dans cette représentation d’un passé aseptisé; un passé n’étant pas une finalité, mais un moyen déférant à l’intérêt national.
Resumo:
In this paper we propose exact likelihood-based mean-variance efficiency tests of the market portfolio in the context of Capital Asset Pricing Model (CAPM), allowing for a wide class of error distributions which include normality as a special case. These tests are developed in the frame-work of multivariate linear regressions (MLR). It is well known however that despite their simple statistical structure, standard asymptotically justified MLR-based tests are unreliable. In financial econometrics, exact tests have been proposed for a few specific hypotheses [Jobson and Korkie (Journal of Financial Economics, 1982), MacKinlay (Journal of Financial Economics, 1987), Gib-bons, Ross and Shanken (Econometrica, 1989), Zhou (Journal of Finance 1993)], most of which depend on normality. For the gaussian model, our tests correspond to Gibbons, Ross and Shanken’s mean-variance efficiency tests. In non-gaussian contexts, we reconsider mean-variance efficiency tests allowing for multivariate Student-t and gaussian mixture errors. Our framework allows to cast more evidence on whether the normality assumption is too restrictive when testing the CAPM. We also propose exact multivariate diagnostic checks (including tests for multivariate GARCH and mul-tivariate generalization of the well known variance ratio tests) and goodness of fit tests as well as a set estimate for the intervening nuisance parameters. Our results [over five-year subperiods] show the following: (i) multivariate normality is rejected in most subperiods, (ii) residual checks reveal no significant departures from the multivariate i.i.d. assumption, and (iii) mean-variance efficiency tests of the market portfolio is not rejected as frequently once it is allowed for the possibility of non-normal errors.
Resumo:
Depuis qu’en 1977, en quatrième de couverture de Fils, Serge Doubrovsky employa le mot « autofiction » pour décrire son roman, les études doubrovskiennes ont eu tendance à se focaliser sur les questions génériques que sous-tendait ce néologisme. Ainsi on a écarté un autre aspect, tout aussi important, de l’œuvre de l’auteur : celui du lien avec le lecteur qui, en plus d’être mis en scène dans chacune des autofictions doubrovskiennes, est associé dès Fils au rapport complexe, inextricable et conflictuel entre les sexes. « J’écris mâle, me lis femelle », dit le narrateur-écrivain ‘Serge Doubrovsky’ – lui qui vivra sous nos yeux une série d’histoires passionnelles avec des compagnes qui sont également ses lectrices. Repris d’épisode en épisode, le rapport entre le héros doubrovskien et sa compagne du moment rappelle les hypothèses de Doubrovsky dans Corneille ou la dialectique du héros (1963), inspirées de la dialectique hégélienne du Maître et de l’Esclave. Cette thèse s’attache donc à analyser la relation dialectique auteur-lectrice telle que mise en scène et approfondie dans l’ensemble de l’édifice autofictionnel. Après présentation et étude des mécanismes dont se sert l’auteur pour construire son Lecteur Modèle (Première partie), les trois autres sections principales de la thèse sont consacrées à l’analyse de Fils et Un amour de soi (1977 et 1982 ; Deuxième partie) ; du Livre brisé et de l’Après-vivre (1989 et 1994 ; Troisième partie) ; et enfin de Laissé pour conte (1999 ; Quatrième partie). Il s’agira enfin de montrer la portée non seulement littéraire, mais également sociale (la réflexion s’élargit à chaque épisode pour aborder les questions de la réception contemporaine de l’œuvre littéraire) et historique (le motif Maître-Esclave s’inscrit dans l’Histoire de l’Europe du XXe siècle, plus précisément la Seconde Guerre mondiale et la Shoah) du thème dialectique doubrovskien.
Resumo:
L’objectif à moyen terme de ce travail est d’explorer quelques formulations des problèmes d’identification de forme et de reconnaissance de surface à partir de mesures ponctuelles. Ces problèmes ont plusieurs applications importantes dans les domaines de l’imagerie médicale, de la biométrie, de la sécurité des accès automatiques et dans l’identification de structures cohérentes lagrangiennes en mécanique des fluides. Par exemple, le problème d’identification des différentes caractéristiques de la main droite ou du visage d’une population à l’autre ou le suivi d’une chirurgie à partir des données générées par un numériseur. L’objectif de ce mémoire est de préparer le terrain en passant en revue les différents outils mathématiques disponibles pour appréhender la géométrie comme variable d’optimisation ou d’identification. Pour l’identification des surfaces, on explore l’utilisation de fonctions distance ou distance orientée, et d’ensembles de niveau comme chez S. Osher et R. Fedkiw ; pour la comparaison de surfaces, on présente les constructions des métriques de Courant par A. M. Micheletti en 1972 et le point de vue de R. Azencott et A. Trouvé en 1995 qui consistent à générer des déformations d’une surface de référence via une famille de difféomorphismes. L’accent est mis sur les fondations mathématiques sous-jacentes que l’on a essayé de clarifier lorsque nécessaire, et, le cas échéant, sur l’exploration d’autres avenues.
Resumo:
Malgré le progrès technologique et nos connaissances pharmaceutiques et médicales croissantes, le développement du médicament demeure un processus difficile, dispendieux, long et très risqué. Ce processus mérite d'être amélioré pour faciliter le développement de nouveaux traitements. À cette fin, cette thèse vise à démontrer l’utilité de principes avancés et d’outils élaborés en pharmacocinétique (PK), actuels et nouveaux. Ces outils serviront à répondre efficacement à des questions importantes lors du développement d’un médicament, sauvant ainsi du temps et des coûts. Le premier volet de la thèse porte sur l’utilisation de la modélisation et des simulations et la création d’un nouveau modèle afin d’établir la bioéquivalence entre deux formulations de complexe de gluconate ferrique de sodium en solution de sucrose pour injection. Comparé aux méthodes courantes, cette nouvelle approche proposée se libère de plusieurs présuppositions, et requiert moins de données. Cette technique bénéficie d’une robustesse scientifique tout en étant associée à des économies de temps et de coûts. Donc, même si développé pour produits génériques, elle pourra également s’avérer utile dans le développement de molécules innovatrices et « biosimilaires ». Le deuxième volet décrit l’emploi de la modélisation pour mieux comprendre et quantifier les facteurs influençant la PK et la pharmacodynamie (PD) d’une nouvelle protéine thérapeutique, la pegloticase. L’analyse a démontré qu’aucun ajustement posologique n’était nécessaire et ces résultats sont inclus dans la monographie officielle du produit. Grâce à la modélisation, on pouvait répondre à des questions importantes concernant le dosage d’un médicament sans passer par des nouvelles études ni d'évaluations supplémentaires sur les patients. Donc, l’utilisation de cet outil a permis de réduire les dépenses sans prolonger le processus de développement. Le modèle développé dans le cadre de cette analyse pourrait servir à mieux comprendre d’autres protéines thérapeutiques, incluant leurs propriétés immunogènes. Le dernier volet démontre l’utilité de la modélisation et des simulations dans le choix des régimes posologiques d’un antibiotique (TP-434) pour une étude de Phase 2. Des données provenant d’études de Phase 1 ont été modélisées au fur et à mesure qu’elles devenaient disponibles, afin de construire un modèle décrivant le profil pharmacocinétique du TP-434. Ce processus de modélisation exemplifiait les cycles exploratoires et confirmatoires décrits par Sheiner. Ainsi, en se basant sur des relations PK/PD d’un antibiotique de classe identique, des simulations ont été effectuées avec le modèle PK final, afin de proposer de nouveaux régimes posologiques susceptibles d’être efficace chez les patients avant même d'effectuer des études. Cette démarche rationnelle a mené à l’utilisation de régimes posologiques avec une possibilité accrue d’efficacité, sans le dosage inutile des patients. Ainsi, on s’est dispensé d’études ou de cohortes supplémentaires coûteuses qui auraient prolongé le processus de développement. Enfin, cette analyse est la première à démontrer l’application de ces techniques dans le choix des doses d’antibiotique pour une étude de Phase 2. En conclusion, cette recherche démontre que des outils de PK avancés comme la modélisation et les simulations ainsi que le développement de nouveaux modèles peuvent répondre efficacement et souvent de manière plus robuste à des questions essentielles lors du processus de développement du médicament, tout en réduisant les coûts et en épargnant du temps.