16 resultados para Linear forms in logarithms
em Universit
Resumo:
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
In an economy where cash can be stored costlessly (in nominal terms), the nominal interest rate is bounded below by zero. This paper derives the implications of this nonnegativity constraint for the term structure and shows that it induces a nonlinear and convex relation between short- and long-term interest rates. As a result, the long-term rate responds asymmetrically to changes in the short-term rate, and by less than predicted by a benchmark linear model. In particular, a decrease in the short-term rate leads to a decrease in the long-term rate that is smaller in magnitude than the increase in the long-term rate associated with an increase in the short-term rate of the same size. Up to the extent that monetary policy acts by affecting long-term rates through the term structure, its power is considerably reduced at low interest rates. The empirical predictions of the model are examined using data from Japan.
Resumo:
Cette thèse comprend deux parties distinctes, dans lesquelles seront décrits tout d’abord, le développement d’un procédé multicatalytique en un seul pot d’une réaction de méthylénation suivie d’un couplage de Heck, puis dans un second temps, une étude vers la synthèse de l’Hodgsonox. Le premier thème de la thèse correspond à la mise en place d’un procédé en un seul pot, basé sur la méthodologie de méthylénation catalysée par un métal de transition, développée au sein du groupe du Pr. Lebel, et sur des couplages de Heck. Différentes études de compatibilité des réactifs mis en présence sont abordées, ainsi que le choix des conditions optimales (Pd(OAc)2 et P(o-tol)3) pour la réalisation d’un tel système qui ne requiert aucun isolement du produit intermédiaire. Il a été démontré que la présence de triphénylphosphine en excès inhibe la réaction de couplage de Heck, ce qui a finalement orienté notre choix vers les sels de cuivre pour la catalyse de la réaction de méthylénation. Le tandem séquentiel a ensuite été appliqué à la synthèse de divers stilbènes, notamment des composés dérivés du Resvératrol, molécule d’intérêt thérapeutique pour les maladies cardiovasculaires, et à la synthèse d’indanes substitués, avec un couplage intramoléculaire, avec de bons rendements. La deuxième partie de cette thèse traite de l’étude menée vers la synthèse de l’Hodgsonox. Cette molécule correspond à une nouvelle classe de sesquiterpènes tricycliques, comportant un dihydropyrane doté d’une fonction éther diallylique. Cette molécule représente un défi synthétique pour le groupe du Pr. Lebel, qui envisage de synthétiser les deux doubles liaisons terminales au moyen de la méthodologie de méthylénation développée au sein du groupe. L’Hodgsonox, dont la biosynthèse utilise la voie MEP, a un potentiel insecticide pour la croissance de la larve de la mouche verte d’Australie, Lucilia cuprina. La synthèse envisagée au cours de ces travaux est basée sur la formation préalable d’un cycle à 5 chaînons, comportant 3 centres stéréogéniques, puis sur la cyclisation du cycle pyranique au moyen d’une réaction d’insertion dans un lien O H. Un dédoublement cinétique dynamique sur une δ butyrolactone substituée permet de fixer la stéréochimie relative de deux centres chiraux dès la première étape. Le cycle à 5 chaînons est ensuite formé par métathèse après 6 étapes avec un rendement de 37%. Une addition conjuguée suivie d’une réaction de Saegusa et d’une réaction d’hydrosilylation introduit le groupement isopropyle de manière syn. Après mise en place d’un groupement céto-ester, un transfert de groupement diazonium permet de préparer le précurseur pour la réaction d’insertion dans un lien O-H. Le bicycle correspondant à la structure de base de l’Hodgsonox a été préparé au moyen de 16 étapes linéaires avec un rendement global de 12%.
Resumo:
Ibn Khaldûn(1332-1406) fut homme d’Etat et historien des conflits et des changements politiques au Moyen-Orient et en Afrique du Nord. Il a écrit la Muqaddima, une vaste analyse du déclin de la civilisation arabe. Dans cet ouvrage l’ «éthique du Juste » est présentée comme l’obéissance à la loi et l’application des sciences rationnelles à la tradition. Ceci le mène à condamner l’ « éthique du Bien » en tant que calcul de son propre bonheur. Le conflit actuel reflète bien ce dualisme sous de nouvelles formes d’eudémonisme telle que l’utilitarisme. Sa théorie du changement politique et des conflits est toujours d’actualité : le développement économique conduit à la destruction des dynasties au pouvoir ; ce dernier repose sur l’Asabiya, une forme spécifique du capital social. Le pouvoir politique dure trois générations et connaît une évolution faite d’essor, d’apogée et de déclin. Cette théorie des « trois phases » du développement permet de mieux comprendre les conflits que connaît actuellement le monde arabe.
Resumo:
Cette thèse propose une analyse croisée du cinéma et du jeu vidéo sous un angle interdisciplinaire afin de montrer la réappropriation et le remédiatisation des structures narratives et formelles du jeu vidéo dans le cinéma d’effets visuels du tournant du XXIe siècle. Plus spécifiquement, la thèse porte sur l’analyse de trois figures majeures du jeu vidéo et de l’animation dans la trilogie Matrix (Larry et Andy Wachowski, 1999-2003), dans Avalon (Mamoru Oshii, 2001) et dans Kung-Fu Hustle (Stephen Chow, 2004). La première section de la thèse consiste en une mise en place théorique par la présentation de certains paramètres esthétiques du cinéma d’effets visuels et du jeu vidéo. Quelques réflexions préliminaires sur l’esthétique du cinéma d’effets visuels sont d’abord esquissées avant de présenter les principales relations transmédiales entre le cinéma et le jeu vidéo. Ensuite, c’est le cinéma transludique qui est défini alors que le terme découle de la synergie singulière entre le cinéma et le jeu vidéo. Puisque le cinéma transludique concerne spécifiquement la récupération de l’esthétique du jeu vidéo dans le cinéma contemporain, les prémisses d’une esthétique du jeu vidéo sont alors établies. Dans la deuxième section, ce sont les figures et sous-figures au cœur de cette réflexion qui sont développées, pour ensuite les appliquer aux films du corpus. La première figure à l’étude est celle de l’exploration, alors que l’analyse de la signification de cette figure dans la conception de jeu vidéo et dans les récits cinématographiques de science-fiction montre l’importance de la navigation comme expérience spatio-temporelle dans les univers virtuels. Ensuite, c’est l’utilisation récurrente de la figure vidéoludique du niveau (level) dans le cinéma hybride contemporain qui est soulignée, figure qui structure autant le récit que la forme représentationnelle des films transludiques. Enfin, la figure de la métamorphose, indissociable du cinéma d’animation, est étudiée afin de souligner l’importance de cette figure dans la création numérique et d’expliquer la transformation de l’image qui affecte le cinéma transludique, image qualifiée d’image-frontière.
Resumo:
Dans cette recherche, nous tentons de démontrer le rôle du paysage dans la structuration des villes industrielles, afin de justifier sa considération dans les outils de planification. Pour atteindre cet objectif, nous nous penchons sur une ville manufacturière du Centre-du-Québec : Drummondville. Nous utilisons une méthodologie en trois étapes. Nous réalisons en premier lieu un historique puis une analyse paysagère. Pour dépasser la simple description des paysages et de l’évolution de la forme urbaine, nous interprétons ensuite ces résultats en fonction des domaines de cohérence de la géographie structurale. Selon cette théorie, Drummondville constitue un domaine de cohabitation. Le rôle du paysage dans le développement et la structuration du territoire varie en fonction des sensibilités dominantes. Il est donc plus important lors des périodes qui valorisent les formes esthétiques et culturelles et moins structurant lorsque les valeurs dominantes favorisent les formes rationnelles. Dans les domaines de cohabitation où les forces industrielles sont plus constantes, des aménagements utilitaires sont parfois réalisés sur des sites paysagers. En raison de leur plus faible valorisation, les paysages y sont plus souvent menacés. En ce sens, il importe d’autant plus de les considérer dans les documents de planification.
Resumo:
Le sel sodique du carboxyméthylamidon à haute teneur en amylose, HASCA (Amylose 60%-amylopectine 40%), est un polymère hydrophile ionique utilisé pour obtenir des comprimés matriciels à libération prolongée. Il est caractérisé par la formation d'un hydrogel lors de la mise en contact avec le milieu de dissolution. La libération du principe actif (PA) à travers ce polymère est principalement contrôlée par la diffusion fickienne et la relaxation du réseau polymérique. De plus, la solubilité du PA est un facteur qui permet de moduler la libération, cependant, la solubilité d’un médicament dépend de la forme utilisée et du pH. Les bases ou les acides libres présentent une solubilité moins élevée que leurs sels. Nous proposons d’étudier l’effet d’une combinaison entre le sel et la forme acide ou le sel et la forme alcaline dans le même comprimé matriciel d’HASCA. Comme objectif de ce travail, nous étudions l’influence de la nature du polymère sur le profil de libération de PA dans un milieu aqueux en gradient de pH à cause de la nature des matrices à base d’HASCA caractérisées par la présence de groupement carboxyliques, ionisés ou non selon l’acidité du milieu de dissolution. Nous étudions également l’influence de la nature du PA (base libre ou son sel vs acide libre ou son sel) sur le profil de libération, ceci en sélectionnant des PAs modèles représentatifs de chaque catégorie. L’influence de changement de proportions entre la forme libre (acide ou base) et son sel sur le profil de libération est aussi investiguée. Pour ce, des comprimés à base de HASCA avec des proportions différentes de, soit le naproxène acide et le naproxène de sodium (PA acide et son sel), soit la tétracycline et le chlorhydrate de tétracycline (PA alcalin et son sel) ont été utilisés. Ceux-ci sont évalués lors des tests de dissolution dans un milieu simulant le milieu gastro-intestinal, selon les normes de l’USP (spectrophotométrie UV). Nous avons également menés des études de vitesse de dissolution intrinsèque sur les PAs purs, afin de déterminer leur solubilité et vitesse de libération dans les même pH de dissolution étudiés. Nous avons réussit d’obtenir des comprimés matriciels à base de HASCA convenables à être administrés une fois par jour en utilisant une combinaison du naproxène acide et son sel comme PA. Tandis que les résultats ont montré qu’en utilisant la tétracycline et son sel, les temps de libération étaient trop élevés pour permettre la réalisation d’une formulation convenable pour une administration quotidienne unique
Resumo:
L’objet de ce mémoire est d’explorer le lien étroit qui existe entre la pratique de l’autobiographie et l’écriture comme forme d’engagement dans l’œuvre de Simone de Beauvoir, grâce à une analyse du genre ambigu de L’Amérique au jour le jour et des discours politiques qu’il renferme. Bien que L’Amérique au jour le jour constitue le corpus principal de ce mémoire, nous utiliserons aussi des textes contemporains à la rédaction du journal de voyage américain pour guider notre classification générique, dont les Lettres à Nelson Algren, les Lettres à Sartre et Les Mandarins, ainsi que les volumes de l’ensemble autobiographique beauvoirien qui portent sur l’après-guerre, même si ceux-ci sont postérieurs à la rédaction du journal. À l’aide de concepts issus de la poétique des genres, comme les questions de hiérarchie, de proportion, d’intention et de programme, et de l’éthique de l’engagement de l’écrivain telle que définie par la notion sartrienne de l’engagement, nous tenterons de démontrer que l’ambiguïté générique de L’Amérique au jour le jour relève d’une action délibérée de l’auteure visant à mettre en péril son capital symbolique pour assurer la crédibilité de son engagement intellectuel. Une fois les concepts précités définis, le deuxième chapitre de notre mémoire s’attardera à explorer toutes les facettes de l’ambiguïté générique du journal américain, alors que le troisième chapitre démontrera le lien entre les écritures intimes et l’engagement, tout en explorant les formes que prend l’engagement dans le livre. Pour ce faire, nous analyserons trois discours politiques tenus par Beauvoir dans son œuvre : la critique du consumérisme américain, la critique de la condition des Noirs et la critique de la femme américaine. Nous conclurons notre mémoire en démontrant que L’Amérique au jour le jour est devenu une sorte de matrice dans la pratique autobiographique et scripturaire de Simone de Beauvoir, ainsi que dans son engagement.
Resumo:
Cette recherche s'intéresse à l'acteur patronal organisé, encore peu étudié en Amérique du Nord. Pourtant, cet acteur est fortement organisé au Québec et il exerce une influence reconnue sur les politiques publiques et les relations industrielles. Cette recherche vise à mieux comprendre la logique d’action des employeurs et les lieux où ils exercent leur influence. Plus important encore, la recherche s’interroge sur les mécanismes de diffusion utilisés par les associations patronales pour transmettre à leurs membres des orientations et des lignes directrices à adopter. Tout comme pour l’acteur syndical qui doit développer sa capacité représentative (Dufour, Hege, Levesque et Murray, 2009), nous croyons qu’il en est de même pour l’acteur patronal. Bref, cette étude cherche à comprendre comment les associations patronales vont s'assurer que leurs membres adoptent des pratiques en lien avec les positions défendues dans les institutions du marché du travail et dans la sphère des politiques publiques. Notre question de recherche est la suivante : Quels sont les mécanismes développés par les associations patronales pour diffuser leurs orientations en matière de politiques publiques et de relations du travail en vue d’influencer les pratiques locales de gestion de leurs membres? Au plan théorique, cette étude mobilise les idées développées par les approches néo-institutionnalistes pour mieux expliquer comment les acteurs vont utiliser les institutions en place pour façonner les règles dans leurs intérêts, ce qui suppose d’abord une capacité de représentation et une cohérence dans les actions entre les niveaux où se situent l’acteur. On cherche à comprendre comment les associations peuvent coordonner les actions patronales en réaction aux changements qui s’opèrent dans l’environnement institutionnel. Les associations patronales sont des entrepreneurs institutionnels (Crouch, 2005) qui sont à la recherche active d’opportunités et de leviers de pouvoir à utiliser pour maximiser leurs intérêts de leurs membres et par la même occasion, réduire les incertitudes en provenance de l’environnement (Campbell, 2004; Streeck et Thelen, 2005; Crouch, 2005). Toujours au niveau théorique, cette étude se base sur les idées avancées par la sociologie des logiques d’action. Cette approche théorique nous permet de rendre compte des niveaux sectoriel et local où s’enracinent les comportements des employeurs. Au niveau sectoriel, il existe une pluralité d’instances qui contribuent à façonner les logiques d’actions des associations patronales. La sociologie des logiques d’actions nous permet d’envisager l’association patronale comme un groupe qui dispose d’une vie qui lui est propre avec une relative autonomie de fonctionnement. La capacité d’influence de l’association serait tributaire des mécanismes de coordination de l’action utilisés pour susciter l’accord au sein du groupe. Les mécanismes de coordination de l’action devraient permettre une connexion régulière et stable entre l’association et ses membres. Cette recherche s’intéresse aux associations patronales qui ont recours à un ensemble de moyens pour diffuser les orientations privilégiées aux entreprises membres. Au plan empirique, cette recherche propose de répondre aux trois objectifs suivants : (1) mieux comprendre les formes d’organisation patronales dans les mines au Québec; (2) mieux saisir la structure et la logique d’action des associations patronales sur les politiques publiques, les relations de travail et le marché du travail et finalement (3) mieux comprendre les mécanismes développés par les associations patronales pour diffuser leurs orientations en vue d’influencer les pratiques locales de gestion de leurs membres. Pour atteindre nos objectifs de recherche, nous avons utilisé une méthodologie qualitative de recherche soit une étude de cas du secteur des mines au Québec. Cette dernière a été conduite en trois étapes : la préparation, la collecte des données et l’interprétation (Merriam, 1998). Les données de cette étude ont été recueillies à l’hiver 2012, par le biais d’entretiens semi-directifs auprès de gestionnaires d’entreprises minières et de dirigeants d’associations minières. Une analyse qualitative du contenu de ces entrevues a été effectuée en lien avec la revue de littérature et nos propositions de recherche. À cette fin, nous avons utilisé la technique de l’appariement logique de Yin (1994), ce qui nous a permis de comparer nos observations à nos propositions de recherche. Au niveau des résultats, nous avons pu constater que les associations patronales du secteur des mines au Québec, endossent davantage le rôle de porte-parole de l’industrie auprès du gouvernement que celui de développeur de services aux membres. Les actions des associations patronales s’exercent à tous les niveaux décisionnels afin d’assurer la meilleure promotion possible des intérêts des employeurs. La représentation politique représente le champ d’activité le plus important qui compose la logique d’action des associations patronales de la filière minérale québécoise. Mentionnons également que la représentation des intérêts des entreprises auprès du public et des médias est également vitale à l’action collective patronale dans un souci d’acceptabilité sociale. Les associations d’employeurs vont tenter principalement d’influencer les pratiques en relations industrielles qui permettent d’assurer une meilleure image de l’industrie et qui sont jugées prioritaires en fonction du contexte institutionnel en place. La recherche nous a permis d’observer un impact favorable et significatif à la capacité de diffusion pour cinq des sept mécanismes de diffusion faisant partie de notre modèle d’analyse. Trois de ces cinq mécanismes favorisent la capacité de diffusion descendante (transposition de la logique d’action sectorielle sur les pratiques locales des membres) et les deux autres favorisent plutôt la capacité de diffusion ascendante (transposition des enjeux locaux jugés prioritaires sur la logique d’action sectorielle). Les mécanismes qui supportent au mieux la cohésion au sein de l’association sont ceux qui impliquent une relation dynamique entre les représentants et les membres et entre les membres eux-mêmes d’où la pertinence d’une diffusion descendante et ascendante des orientations. Il est à noter qu’étant donné que cette recherche consiste en une étude de cas, des limites méthodologiques liées à la généralisation des résultats sont présentes. Il n’est pas aisé d’affirmer que les résultats de cette microanalyse soient généralisables en raison des spécificités du secteur à l’étude. En contrepartie, les analyses ont servi à l’élaboration d’un modèle qui pourra être utilisé dans des études futures.
Resumo:
Le but de cette thèse est d’expliquer la délinquance prolifique de certains délinquants. Nous avançons la thèse que la délinquance prolifique s’explique par la formation plus fréquente de situations criminogènes. Ces situations réfèrent au moment où un délinquant entre en interaction avec une opportunité criminelle dans un contexte favorable au crime. Plus exactement, il s’agit du moment où le délinquant fait face à cette opportunité, mais où le crime n’a pas encore été commis. La formation de situations criminogènes est facilitée par l’interaction et l’interdépendance de trois éléments : la propension à la délinquance de la personne, son entourage criminalisé et son style de vie. Ainsi, la délinquance prolifique ne pourrait être expliquée adéquatement sans tenir compte de l’interaction entre le risque individuel et le risque contextuel. L’objectif général de la présente thèse est de faire la démonstration de l’importance d’une modélisation interactionnelle entre le risque individuel et le risque contextuel afin d’expliquer la délinquance plus prolifique de certains contrevenants. Pour ce faire, 155 contrevenants placés sous la responsabilité de deux établissements des Services correctionnels du Québec et de quatre centres jeunesse du Québec ont complété un protocole d’évaluation par questionnaires auto-administrés. Dans un premier temps (chapitre trois), nous avons décrit et comparé la nature de la délinquance autorévélée des contrevenants de notre échantillon. Ce premier chapitre de résultats a permis de mettre en valeur le fait que ce bassin de contrevenants est similaire à d’autres échantillons de délinquants en ce qui a trait à la nature de leur délinquance, plus particulièrement, au volume, à la variété et à la gravité de leurs crimes. En effet, la majorité des participants rapportent un volume faible de crimes contre la personne et contre les biens alors qu’un petit groupe se démarque par un lambda très élevé (13,1 % des délinquants de l’échantillon sont responsables de 60,3% de tous les crimes rapportés). Environ quatre délinquants sur cinq rapportent avoir commis au moins un crime contre la personne et un crime contre les biens. De plus, plus de 50% de ces derniers rapportent dans au moins quatre sous-catégories. Finalement, bien que les délinquants de notre échantillon aient un IGC (indice de gravité de la criminalité) moyen relativement faible (médiane = 77), près de 40% des contrevenants rapportent avoir commis au moins un des deux crimes les plus graves recensés dans cette étude (décharger une arme et vol qualifié). Le second objectif spécifique était d’explorer, au chapitre quatre, l’interaction entre les caractéristiques personnelles, l’entourage et le style de vie des délinquants dans la formation de situations criminogènes. Les personnes ayant une propension à la délinquance plus élevée semblent avoir tendance à être davantage entourées de personnes criminalisées et à avoir un style de vie plus oisif. L’entourage criminalisé semble également influencer le style de vie de ces délinquants. Ainsi, l’interdépendance entre ces trois éléments facilite la formation plus fréquente de situations criminogènes et crée une conjoncture propice à l’émergence de la délinquance prolifique. Le dernier objectif spécifique de la thèse, qui a été couvert dans le chapitre cinq, était d’analyser l’impact de la formation de situations criminogènes sur la nature de la délinquance. Les analyses de régression linéaires multiples et les arbres de régression ont permis de souligner la contribution des caractéristiques personnelles, de l’entourage et du style de vie dans l’explication de la nature de la délinquance. D’un côté, les analyses de régression (modèles additifs) suggèrent que l’ensemble des éléments favorisant la formation de situations criminogènes apporte une contribution unique à l’explication de la délinquance. D’un autre côté, les arbres de régression nous ont permis de mieux comprendre l’interaction entre les éléments dans l’explication de la délinquance prolifique. En effet, un positionnement plus faible sur certains éléments peut être compensé par un positionnement plus élevé sur d’autres. De plus, l’accumulation d’éléments favorisant la formation de situations criminogènes ne se fait pas de façon linéaire. Ces conclusions sont appuyées sur des proportions de variance expliquée plus élevées que celles des régressions linéaires multiples. En conclusion, mettre l’accent que sur un seul élément (la personne et sa propension à la délinquance ou le contexte et ses opportunités) ou leur combinaison de façon simplement additive ne permet pas de rendre justice à la complexité de l’émergence de la délinquance prolifique. En mettant à l’épreuve empiriquement cette idée généralement admise, cette thèse permet donc de souligner l’importance de considérer l’interaction entre le risque individuel et le risque contextuel dans l’explication de la délinquance prolifique.
Resumo:
En français contemporain, l’hésitation dans le choix entre être et avoir comme auxiliaire dans les formes verbale composées (par ex. le passé composé) de certains verbes intransitifs (par ex. tomber), surtout dans des variétés non standards du français, démonte clairement l’écart qui existe entre le français normé et le français oral quotidien. Cette hésitation, voire l’incertitude, dans le choix de l’auxiliaire n’est pas une particularité arbitraire ou aléatoire de la langue contemporaine; elle s’inscrit plutôt dans une tendance diachronique et pan-romane que l’on a pu observer dans la langue française depuis son émancipation du latin. Notre étude, qui se fonde sur la théorie de la grammaticalisation, propose une analyse du discours grammatical de 1500 – époque où sont apparues les premières grammaires du français – jusqu’à 1789 avec la Révolution française, signalant le moment où la langue se serait stabilisée et aurait adopté sa forme moderne. Nous divisons les trois siècles de notre étude en quatre périodes distinctes, déjà bien établies dans les études historiques. Ce sont : - Le XVIe siècle (1530-1599) - La première moitié de la période classique (1600-1650) - La deuxième moitié de la période classique (1651-1715) - Le Siècle des lumières (1716-1789) Pour chacune des quatre périodes, l’analyse se fait en trois temps. Premièrement, nous recensons les grammairiens, les lexicographes et les essayistes qui se sont prononcés, soit explicitement, soit implicitement, sur l’emploi des auxiliaires être et avoir dans les formes verbales composées (FVC). Nous identifions, là où cela est possible, le dialecte maternel de chaque auteur et son modèle d’usage. Deuxièmement, nous résumons les observations et les commentaires sur l’emploi des auxiliaires dans les FVC formulés par chaque auteur, y compris les tentatives d’explication quant à la variation dans le choix de l’auxiliaire. Finalement, nous rapportons la description de l’emploi des auxiliaires dans les FVC proposée par des historiens de la langue française pour la période en question. Notre étude nous permet de confirmer, en ce qui concerne les FVC, certaines tendances déjà reconnues dans la langue française et d’en identifier d’autres. Également, nous avons pu repérer, voire circonscrire des facteurs qui ont eu une influence sur le choix, tels les verbes plus sensibles à l’alternance, les grammairiens dont l’autorité s’est imposé plus que d’autres ou avant les autres dans l’établissement de la norme sur ce point, les contextes sociaux dans lesquels le débat a eu lieu et la période pendant laquelle les préoccupations sur ce choix était les plus intenses.
Resumo:
L'objectif du présent mémoire vise à présenter des modèles de séries chronologiques multivariés impliquant des vecteurs aléatoires dont chaque composante est non-négative. Nous considérons les modèles vMEM (modèles vectoriels et multiplicatifs avec erreurs non-négatives) présentés par Cipollini, Engle et Gallo (2006) et Cipollini et Gallo (2010). Ces modèles représentent une généralisation au cas multivarié des modèles MEM introduits par Engle (2002). Ces modèles trouvent notamment des applications avec les séries chronologiques financières. Les modèles vMEM permettent de modéliser des séries chronologiques impliquant des volumes d'actif, des durées, des variances conditionnelles, pour ne citer que ces applications. Il est également possible de faire une modélisation conjointe et d'étudier les dynamiques présentes entre les séries chronologiques formant le système étudié. Afin de modéliser des séries chronologiques multivariées à composantes non-négatives, plusieurs spécifications du terme d'erreur vectoriel ont été proposées dans la littérature. Une première approche consiste à considérer l'utilisation de vecteurs aléatoires dont la distribution du terme d'erreur est telle que chaque composante est non-négative. Cependant, trouver une distribution multivariée suffisamment souple définie sur le support positif est plutôt difficile, au moins avec les applications citées précédemment. Comme indiqué par Cipollini, Engle et Gallo (2006), un candidat possible est une distribution gamma multivariée, qui impose cependant des restrictions sévères sur les corrélations contemporaines entre les variables. Compte tenu que les possibilités sont limitées, une approche possible est d'utiliser la théorie des copules. Ainsi, selon cette approche, des distributions marginales (ou marges) peuvent être spécifiées, dont les distributions en cause ont des supports non-négatifs, et une fonction de copule permet de tenir compte de la dépendance entre les composantes. Une technique d'estimation possible est la méthode du maximum de vraisemblance. Une approche alternative est la méthode des moments généralisés (GMM). Cette dernière méthode présente l'avantage d'être semi-paramétrique dans le sens que contrairement à l'approche imposant une loi multivariée, il n'est pas nécessaire de spécifier une distribution multivariée pour le terme d'erreur. De manière générale, l'estimation des modèles vMEM est compliquée. Les algorithmes existants doivent tenir compte du grand nombre de paramètres et de la nature élaborée de la fonction de vraisemblance. Dans le cas de l'estimation par la méthode GMM, le système à résoudre nécessite également l'utilisation de solveurs pour systèmes non-linéaires. Dans ce mémoire, beaucoup d'énergies ont été consacrées à l'élaboration de code informatique (dans le langage R) pour estimer les différents paramètres du modèle. Dans le premier chapitre, nous définissons les processus stationnaires, les processus autorégressifs, les processus autorégressifs conditionnellement hétéroscédastiques (ARCH) et les processus ARCH généralisés (GARCH). Nous présentons aussi les modèles de durées ACD et les modèles MEM. Dans le deuxième chapitre, nous présentons la théorie des copules nécessaire pour notre travail, dans le cadre des modèles vectoriels et multiplicatifs avec erreurs non-négatives vMEM. Nous discutons également des méthodes possibles d'estimation. Dans le troisième chapitre, nous discutons les résultats des simulations pour plusieurs méthodes d'estimation. Dans le dernier chapitre, des applications sur des séries financières sont présentées. Le code R est fourni dans une annexe. Une conclusion complète ce mémoire.
Resumo:
Réalisé en cotutelle avec l'Université Paris-Diderot.
Resumo:
Si la littérature est rarement considérée comme une science, comme vraie, comme créatrice d’un savoir, toujours un peu à l’écart, avec ses fictions, et ce malgré un médium, le langage, commun à la philosophie et dont la qualité discursive correspond au mode d’expression de la pensée, malgré sa place acquise parmi les disciplines académiques, c’est parce que nous refusons de voir quel rôle vital joue l’affect dans la naissance et l’élaboration de la pensée. Le rejet de l’affect par la science est lui-même le produit de plusieurs affects — peur, orgueil — à partir desquels nous créons le concept de « pensée » qui nous convient le mieux, qui nous rassure le plus : rationalité, linéarité, objectivité. En réalité, cette dernière est chaotique et subjective et c’est seulement à travers son expression dans le langage qu’elle s’ordonne et acquiert une apparence d’objectivité. Mais le langage est lui-même le produit d’affects : nulle vérité infaillible ne sous-tend l’élaboration de nos langues, de leurs règles grammaticales et des sens de leurs mots. Ainsi la littérature, malgré (ou à cause de) la fiction, les fables, les inventions, parce qu’elle est création langagière, parce qu’elle remet toujours en question le langage est, en réalité, plus lucide que la raison. De plus, toujours aux prises avec l’image, elle connaît, d’une certaine façon, l’affect. Elle tente de le représenter, afin de frapper et d’ébranler la conscience du lecteur. C’est à travers elle que j’ai voulu élaborer non pas un savoir rationnel, mais un savoir sur l’affect, un savoir affectif. Pensée critique et affect sont en effet deux composantes essentielles de la création littéraire, ce qui apparaît particulièrement dans l’œuvre d’Ingeborg Bachmann, qui compte à la fois une thèse en philosophie sur Heidegger, des recueils de poésie, de nouvelles, des essais et un cycle romanesque inachevé, Todesarten. Je me suis penchée plus précisément sur certaines de ses nouvelles ainsi que sur son seul roman achevé, Malina, afin d’y étudier la représentation de l’affect chez certains personnages féminins qui, pour éviter de trop souffrir, construisent autour d’elles un mur de mensonges. J’ai également porté une grande attention aux théories de Bachmann sur la littérature, qu’elle énonce dans ses Leçons de Francfort, ce qui m’a permis, en considérant en même temps ses œuvres de fiction de même que celles de quelques autres écrivains, d’expliquer (de façon non exhaustive) certains rôles de l’affect à la fois chez l’écrivain et chez le lecteur.
L’enseignement de la distinction entre le passé composé et l’imparfait en français langue seconde
Resumo:
La présente recherche vise à décrire et comprendre l’enseignement de la distinction entre le passé composé et l’imparfait à partir des connaissances et conceptions des enseignants ainsi qu’à partir de leur matériel didactique. La distinction aspectuelle, plus précisément celle qui concerne le perfectif et l’imperfectif, est une difficulté qui concerne plusieurs langues. La recherche antérieure s’est beaucoup intéressée à cette question, permettant de comprendre les raisons de cette difficulté qui se fonde sur l’hypothèse de l’aspect. À partir de cette hypothèse, les difficultés concernant la distinction entre le passé composé et l’imparfait s’éclaircissent, permettant d’ajuster les explications et la transposition didactique. Or, la recherche antérieure considère que les manuels didactiques fournissent aux apprenants et aux enseignants des explications qui ne permettent pas une réelle compréhension de la distinction entre le passé composé et l’imparfait. La présente recherche cherche à vérifier ces hypothèses. À partir d’entrevues réalisées auprès de neuf enseignants de français langue seconde, les résultats montrent qu’effectivement, les enseignants s’inspirent des manuels didactiques pour expliquer et transposer la distinction entre le passé composé et l’imparfait. De plus, à partir du matériel didactique fourni par les mêmes enseignants, les résultats montrent que malgré une connaissance de la difficulté d’emploi du passé composé et de l’imparfait, les exercices ne sont pas adaptés aux difficultés des étudiants. Enfin, la présente recherche démontre la prédominance de l’intrant typique par rapport à l’intrant atypique.