668 resultados para Ces deux-là
Resumo:
Pour respecter les droits d’auteur, la version électronique de ce mémoire a été dépouillée de documents visuels. La version intégrale du mémoire a été déposée à la Division de la gestion des documents et des archives.
Resumo:
Une des caractéristiques principales des cellules cancéreuses est la reprogrammation de leur métabolisme énergétique. Des mutations d’enzymes impliquées dans différentes voies métaboliques sont récurrentes chez plusieurs tumeurs, contribuant ainsi à la dérégulation de ces cellules et à l’oncogénèse. C’est le cas de l’isocitrate déshydrogénase 1 (IDH1) et 2 (IDH2), responsables de la conversion de l’isocitrate en α-kétoglutarate dans le cycle de l’acide citrique. Ces enzymes sont fréquemment mutées chez les gliomes, acquérant ainsi la capacité de convertir l’α-kétoglutarate en 2-hydroxyglutarate (2HG), un oncométabolite inhibant les oxygénases α-kétoglutarate dépendantes parmi lesquelles figure notamment KDM4A, une déméthylase de lysines. À la recherche de nouvelles voies oncogéniques potentiellement régulées par les formes mutées de IDH1/2, nous avons initialement observé que les mutations de ces deux enzymes et de PTEN, un régulateur négatif de la voie mTOR, étaient mutuellement exclusives chez les gliomes. Ceci suggère que les mutations de IDH1/2 reproduiraient certains effets engendrés par les mutations de PTEN, créant ainsi un environnement oncogénique similaire. Nous avons observé que les formes mutées de IDH1/2 stimulent l’activation de mTOR grâce à la production et l’accumulation de 2HG. Cette activation repose en partie sur l’inhibition de KDM4A par cet oncométabolite. KDM4A est impliqué dans la stabilisation de DEPTOR, un inhibiteur de mTOR. Ainsi, l’inhibition de KDM4A par le 2HG entraîne la déstabilisation de DEPTOR et, par conséquent, l’activation de mTOR. Nos travaux ont donc permis l’identification d’un nouveau mécanisme oncogénique régulé par les formes mutées de IDH1/2 retrouvées chez les gliomes, soit l’activation de mTOR.
Resumo:
Au cours des dernières années, une sélection génétique importante a été faite pour améliorer la production de lait des bovins, ceci au détriment des performances reproductives. Cette diminution de performance n’a cependant pas été rapportée chez la génisse présentant un même potentiel génétique. Cette immense production de lait et les changements métaboliques qui l’accompagnent ont donc un impact négatif sur l’efficacité reproductive des vaches laitières qui subissent un stress métabolique supérieur à celui des génisses. Le but de l’étude était d’acquérir une meilleure connaissance des différences moléculaires et métaboliques entre ces deux groupes d’animaux pour amener à une meilleure compréhension de la pathogenèse de l’infertilité chez la vache laitière. Pour ce faire, les vagues folliculaires de vaches en lactation (30-50 jours en lait; N = 12) et de génisses (N = 10) ont été synchronisées par ablation écho guidée des follicules et par traitement hormonal avec injection de prostaglandine et insertion d’un implant de progestérone. L’aspiration du liquide folliculaire et des cellules de la granulosa du follicule dominant a été faite au jour 6. Les paramètres métaboliques mesurés chez les animaux à partir de prises de sang, faites au jour 6, confirment un plus grand stress métabolique chez la vache, les niveaux de BHBA, acides biliaires et cholestérol étant plus élevés et le niveau de glucose plus bas chez celles-ci. Un total de six échantillons a été utilisé pour le séquençage d’ARN et des analyses bio-informatiques ont été effectuées. Plusieurs gènes et voies de signalisation ont présenté des différences entre les deux groupes d’animaux incluant le cycle cellulaire et la production d’hormones. Une confirmation des résultats par PCR en temps réel a été faite, mais la grande variation intragroupe a nui à l’obtention de résultats significatifs. Conjointement, une culture primaire de cellules de la granulosa a été réalisée pour évaluer l’effet des acides biliaires sur la stéroïdogenèse suite à la détection d’une plus grande quantité de ceux-ci chez la vache laitière. La présence d’acide biliaire dans la culture cellulaire cause une diminution de l’accumulation d’estradiol ainsi que de l’expression des gènes CYP19A1 et CYP11A1. Les résultats présentés dans ce mémoire indiquent une différence potentielle au niveau métabolique et moléculaire des follicules dominants entre la vache laitière et la génisse pouvant avoir une responsabilité dans la diminution de l’efficacité reproductive observée chez la vache laitière.
Resumo:
Cet ouvrage explore en trois volets des aspects du traitement attentionnel de cibles et de distracteurs visuels ainsi que leur mesures électrophysiologiques. Le premier chapitre aborde le traitement attentionnel spécifique à la cible et aux distracteurs durant une recherche visuelle. La division de la N2pc en une NT et une PD remet en question la théorie proposant qu'il existe systématiquement une activité attentionnelle liée à un distracteur saillant, car un distracteur vert ne provoque aucune activité latéralisée propre. Le second chapitre aborde la question de la latéralisation des structures responsables du maintient et de la récupération d'information en mémoire visuelle à court-terme. En utilisant un paradigme de latéralisation de la cible et du distracteur, il nous est possible de vérifier qu'il existe une composante latéralisée négative dans la région temporale, la TCN, propre à la cible lors du rappel en mémoire. De plus, on observe également une composante latéralisée pour le distracteur sur la partie postérieure du crâne. Ces deux éléments convergent pour indiquer qu'il existe une latéralisation des structures activées lors de la récupération de l'information en mémoire visuelle à court-terme en fonction de l'hémichamps où se trouve la cible ou le distracteur. Enfin, dans le troisième chapitre, il est question de l'effet sur le déploiement attentionnel de l'ajout de distracteurs gris de faible saillance autour de cibles potentielles. L'ajout de ces distracteurs augmente la difficulté d'identification de la cible. Cette difficulté provoque un déplacement de l'activité de la N2pc vers la fenêtre de temps associée à la composante Ptc. Un nombre plus important de distracteurs gris entraîne une plus grande proportion de l'activité à être retardée. Également, les distracteurs gris qui sont placés entre les cibles potentielles provoquent un retard plus important que les distracteurs placés hors de cette région. Au cours de cette thèse, la question de la saillance attentionnelle des différentes couleurs durant une recherche visuelle est récurente. Nous observons une plus grande saillance du rouge par rapport au vert quand ils sont distracteurs et le vert est plus difficile à distinguer du gris que le jaune.
Resumo:
Les protéines sont au coeur de la vie. Ce sont d'incroyables nanomachines moléculaires spécialisées et améliorées par des millions d'années d'évolution pour des fonctions bien définies dans la cellule. La structure des protéines, c'est-à-dire l'arrangement tridimensionnel de leurs atomes, est intimement liée à leurs fonctions. L'absence apparente de structure pour certaines protéines est aussi de plus en plus reconnue comme étant tout aussi cruciale. Les protéines amyloïdes en sont un exemple marquant : elles adoptent un ensemble de structures variées difficilement observables expérimentalement qui sont associées à des maladies neurodégénératives. Cette thèse, dans un premier temps, porte sur l'étude structurelle des protéines amyloïdes bêta-amyloïde (Alzheimer) et huntingtine (Huntington) lors de leur processus de repliement et d'auto-assemblage. Les résultats obtenus permettent de décrire avec une résolution atomique les interactions des ensembles structurels de ces deux protéines. Concernant la protéine bêta-amyloïde (AB), nos résultats identifient des différences structurelles significatives entre trois de ses formes physiologiques durant ses premières étapes d'auto-assemblage en environnement aqueux. Nous avons ensuite comparé ces résultats avec ceux obtenus au cours des dernières années par d'autres groupes de recherche avec des protocoles expérimentaux et de simulations variés. Des tendances claires émergent de notre comparaison quant à l'influence de la forme physiologique de AB sur son ensemble structurel durant ses premières étapes d'auto-assemblage. L'identification des propriétés structurelles différentes rationalise l'origine de leurs propriétés d'agrégation distinctes. Par ailleurs, l'identification des propriétés structurelles communes offrent des cibles potentielles pour des agents thérapeutiques empêchant la formation des oligomères responsables de la neurotoxicité. Concernant la protéine huntingtine, nous avons élucidé l'ensemble structurel de sa région fonctionnelle située à son N-terminal en environnement aqueux et membranaire. En accord avec les données expérimentales disponibles, nos résultats sur son repliement en environnement aqueux révèlent les interactions dominantes ainsi que l'influence sur celles-ci des régions adjacentes à la région fonctionnelle. Nous avons aussi caractérisé la stabilité et la croissance de structures nanotubulaires qui sont des candidats potentiels aux chemins d'auto-assemblage de la région amyloïde de huntingtine. Par ailleurs, nous avons également élaboré, avec un groupe d'expérimentateurs, un modèle détaillé illustrant les principales interactions responsables du rôle d'ancre membranaire de la région N-terminal, qui sert à contrôler la localisation de huntingtine dans la cellule. Dans un deuxième temps, cette thèse porte sur le raffinement d'un modèle gros-grain (sOPEP) et sur le développement d'un nouveau modèle tout-atome (aaOPEP) qui sont tous deux basés sur le champ de force gros-grain OPEP, couramment utilisé pour l'étude du repliement des protéines et de l'agrégation des protéines amyloïdes. L'optimisation de ces modèles a été effectuée dans le but d'améliorer les prédictions de novo de la structure de peptides par la méthode PEP-FOLD. Par ailleurs, les modèles OPEP, sOPEP et aaOPEP ont été inclus dans un nouveau code de dynamique moléculaire très flexible afin de grandement simplifier leurs développements futurs.
Resumo:
Dany Laferrière, récemment admis à la prestigieuse Académie française, a produit une œuvre considérable au cours des trente dernières années. Deux de ces premiers romans, Comment faire l’amour avec un Nègre sans se fatiguer et Cette grenade dans la main du jeune Nègre est-elle une arme ou un fruit?, sont caractérisés par une intertextualité riche et variée. La trame narrative de ces deux romans est construite par fragments. Dans le premier texte, on retrouve un écrivain fictif qui procède à l’écriture d’un roman qu’il nomme Paradis du dragueur nègre. Dans le deuxième roman, nous retrouvons le même écrivain, mais ce dernier est plutôt employé par un magazine de la côte est afin de rédiger un reportage sur l’Amérique. Dans les deux cas, il y a une mise en scène de l’écriture par un écrivain fictif qui présente beaucoup de ressemblances avec Laferrière lui-même. Le lecteur assiste à la construction du récit qu’il est en train de lire à travers une autofiction originale. Il y a donc une multitude de ressemblances, et mêmes correspondances, entre les deux récits. Les deux romans de Laferrière s’inscrivent par leur thème, leur style et leur genre dans une « généalogie » de textes qui peuvent être regroupés en « familles » littéraires. Nous tenterons, dans le mémoire qui suit, de définir et de comprendre le rôle de ces « familles » et d’illustrer comment l’appropriation de ces textes permet à l’auteur à la fois de s’en inspirer et de s’en distancer. Il s’agira donc, dans les deux premiers chapitres, d’étudier les références intertextuelles appartenant à ces deux « familles » d’écrivains pour ensuite étudier plus particulièrement la construction de la figure de l’écrivain et de son espace littéraire à travers ces deux œuvres. MOT-CLÉS : Dany Laferrière ; intertextualité ; autofiction ; roman contemporain ; littérature québécoise.
Resumo:
Dans un contexte de crise écologique mondiale, la justice sociale ne peut plus être pensée sans la justice environnementale. L'environnementalisme libertarien pose problème dès l'articulation de ses prémisses, car le droit à l'intégrité de sa personne et de sa propriété semble être incompatible avec un droit minimal de polluer : une seule personne pourrait paralyser l'ensemble de l'activité économique en invoquant son droit à l'intégrité physique. La pollution est pourtant conçue comme un mal nécessaire – ce qui constitue un écart conséquentialiste dans le raisonnement libertarien. Le problème de l'arbitrage entre droits concurrents est contourné par le recours au marché, qui doit permettre de définir un niveau minimal de pollution. Si cela semble fonctionner relativement bien pour la catégorie des biens environnementaux directement utiles, un dilemme se pose dans le cas de la biodiversité, un bien environnemental indirectement utile : soit on assure la protection de l'environnement, soit on respecte l'autonomie des personnes. Il est impossible de parvenir à satisfaire ces deux objectifs fondamentaux en même temps.
Resumo:
Les éthiques de Calliclès et de Diogène de Sinope sont brièvement mises en parallèle. Elles sont radicalement contradictoires sur les questions du contrôle des désirs et de la relation avec autrui : la première est hédoniste et prône la domination ; la seconde défend à la fois une ascèse anti-hédoniste et une éthique de l’adaptation. Or, ces deux discours normatifs se ressemblent en ce qu’ils font tous deux appel à la nature pour fonder leurs thèses. De surcroît, Diogène et Calliclès défendent de véritables naturalismes au sens où leur recours à la nature n’est pas uniquement rhétorique, mais bien justificatif. Cela se manifeste, d’une part, par l’anticonventionnalisme des deux penseurs et, d’autre part, par l’inscription en faux de ces positions contre la vision antinaturaliste de Socrate. C’est dire que l’entreprise naturaliste antique fait face à de sérieux problèmes.
Resumo:
Le cancer pulmonaire est la principale cause de décès parmi tous les cancers au Canada. Le pronostic est généralement faible, de l'ordre de 15% de taux de survie après 5 ans. Les déplacements internes des structures anatomiques apportent une incertitude sur la précision des traitements en radio-oncologie, ce qui diminue leur efficacité. Dans cette optique, certaines techniques comme la radio-chirurgie et la radiothérapie par modulation de l'intensité (IMRT) visent à améliorer les résultats cliniques en ciblant davantage la tumeur. Ceci permet d'augmenter la dose reçue par les tissus cancéreux et de réduire celle administrée aux tissus sains avoisinants. Ce projet vise à mieux évaluer la dose réelle reçue pendant un traitement considérant une anatomie en mouvement. Pour ce faire, des plans de CyberKnife et d'IMRT sont recalculés en utilisant un algorithme Monte Carlo 4D de transport de particules qui permet d'effectuer de l'accumulation de dose dans une géométrie déformable. Un environnement de simulation a été développé afin de modéliser ces deux modalités pour comparer les distributions de doses standard et 4D. Les déformations dans le patient sont obtenues en utilisant un algorithme de recalage déformable d'image (DIR) entre les différentes phases respiratoire générées par le scan CT 4D. Ceci permet de conserver une correspondance de voxels à voxels entre la géométrie de référence et celles déformées. La DIR est calculée en utilisant la suite ANTs («Advanced Normalization Tools») et est basée sur des difféomorphismes. Une version modifiée de DOSXYZnrc de la suite EGSnrc, defDOSXYZnrc, est utilisée pour le transport de particule en 4D. Les résultats sont comparés à une planification standard afin de valider le modèle actuel qui constitue une approximation par rapport à une vraie accumulation de dose en 4D.
Resumo:
L’obésité est un problème de santé publique reconnu. Dans la dernière décennie l’obésité abdominale (OA) a été considérée comme une maladie métabolique qui contribue davantage au risque de diabète et de maladies cardiovasculaires que l’obésité générale définie par l’indice de masse corporelle. Toutefois, dans les populations d’origine africaine, la relation entre l’OA et les autres biomarqueurs de risque cardiométabolique (RCM) demeure obscure à cause du manque d’études chez ces populations et de l’absence de valeurs-seuils spécifiques pour juger d’une OA. Cette étude visait à comparer la prévalence des biomarqueurs de RCM (OA, hypertension artérielle, hyperglycémie, dyslipidémie, résistance à l'insuline et inflammation pré-clinique) chez les Béninois de Cotonou et les Haïtiens de Port-au-Prince (PAP), à étudier l’association de l’OA avec les autres biomarqueurs de RCM, à documenter le rôle du niveau socio-économique (NSE) et du mode de vie dans cette association et à ’identifier les indicateurs anthropométriques de l’OA -tour de taille (TT) et le ratio TT/hauteur (TT/H)- et les seuils qui prédisent le mieux le RCM à Cotonou et à PAP. Il s’est agi d’une analyse de données transversales chez 452 adultes (52 % hommes) apparemment en bonne santé, âgés de 25 à 60 ans, avec 200 sujets vivant à Cotonou (Bénin) et 252 sujets à PAP (Haïti). Les biomarqueurs de RCM considérés étaient : le syndrome métabolique (SMet) d’après les critères harmonisés de 2009 et ses composantes individuelles - une OA à partir d’un TT ≥ 94cm chez les hommes et ≥ 80cm chez les femmes, une hypertension, une dyslipidémie et une hyperglycémie; la résistance à l’insuline définie chez l’ensemble des sujets de l’étude à partir du 75e centile de l’Homeostasis Model Assessment (HOMA-IR); un ratio d’athérogénicité élevé (Cholestérol sérique total/HDL-Cholestérol); et l’inflammation pré-clinique mesurée à partir d’un niveau de protéine C-réactive ultrasensible (PCRus) entre 3 et 10 mg/l. Le ratio TT/H était aussi considéré pour définir l’OA à partir d’un seuil de 0,5. Les données sur les habitudes alimentaires, la consommation d’alcool, le tabagisme, les caractéristiques sociodémographiques et les conditions socio-économiques incluant le niveau d’éducation et un proxy du revenu (basé sur l’analyse par composante principale des biens et des possessions) ont été recueillies au moyen d’un questionnaire. Sur la base de données de fréquence de consommation d’aliments occidentaux, urbains et traditionnels, des schémas alimentaires des sujets de chaque ville ont été identifiés par analyse typologique. La validité et les valeurs-seuils de TT et du ratio TT/H prédictives du RCM ont été définies à partir des courbes ROC (Receiver Operating Characteristics). Le SMet était présent chez 21,5 % et 16,1 % des participants, respectivement à Cotonou et à PAP. La prévalence d’OA était élevée à Cotonou (52,5 %) qu’à PAP (36%), avec une prévalence plus élevée chez les femmes que chez les hommes. Le profil lipidique sérique était plus athérogène à PAP avec 89,3 % d’HDL-c bas à PAP contre 79,7 % à Cotonou et un ratio CT/HDL-c élevé de 73,4 % à PAP contre 42 % à Cotonou. Les valeurs-seuils spécifiques de TT et du TT/H étaient respectivement 94 cm et 0,59 chez les femmes et 80 cm et 0,50 chez les hommes. Les analyses multivariées de l’OA avec les biomarqueurs de RCM les plus fortement prévalents dans ces deux populations montraient que l’OA était associée à un risque accru de résistance à l’insuline, d’athérogénicité et de tension artérielle élevée et ceci, indépendamment des facteurs socio-économiques et du mode de vie. Deux schémas alimentaires ont émergé, transitionnel et traditionnel, dans chaque ville, mais ceux-ci ne se révélaient pas associés aux biomarqueurs de RCM bien qu’ils soient en lien avec les variables socio-économiques. La présente étude confirme la présence de plusieurs biomarqueurs de RCM chez des sujets apparemment sains. En outre, l’OA est un élément clé du RCM dans ces deux populations. Les seuils actuels de TT devraient être reconsidérés éventuellement à la lumière d’études de plus grande envergure, afin de mieux définir l’OA chez les Noirs africains ou d’origine africaine, ce qui permettra une surveillance épidémiologique plus adéquate des biomarqueurs de RCM.
Resumo:
Ce mémoire interroge la posture d'adaptateur de Boris Vian, encore fort méconnue. En 1953, il a repris à son compte la littérature arthurienne afin d'écrire – en réponse à une commande de la part du Festival dramatique de Caen – une pièce de théâtre, Le Chevalier de Neige. Par la suite, cette pièce est devenue un opéra, produit à Nancy en 1957. Malgré le succès de ces deux spectacles, le souvenir de cette œuvre n'a pas dépassé la mort de son auteur. Il n'en reste aujourd'hui que les textes et les partitions musicales, puisqu'aucun des spectacles n'a été enregistré. L'objectif de ce mémoire est de mettre en lumière ce travail d'adaptation et de réécriture d'un auteur phare du XXème siècle, connu principalement pour ses romans et ses chansons, et qui a consacré ses dernières années à la création d'une œuvre globale alliant texte, musique et art de la scène. Qu'est-il possible de savoir sur l'entreprise du Chevalier de Neige? Quel est le poids de l'intertexte médiéval et contemporain dans ces deux réécritures? Quels furent les procédés d'adaptation mis en œuvre dans l'élaboration de cette pièce, puis de cet opéra? C'est à toutes ces questions que nous nous proposons de répondre, afin de découvrir l'importance et l'intérêt du Chevalier de Neige dans le parcours littéraire de Boris Vian.
Resumo:
En 1526, Hassan El Wazzan / Jean-Léon l’Africain, achève à Rome la rédaction en italien du manuscrit du Libro della Cosmographia Dell’Africa, œuvre majeure considérée à la Renaissance comme l’une des principales sources de connaissance du continent africain en Europe. En 1550, un savant vénitien du nom de Jean-Baptiste Ramusio publie le texte italien de Jean-Léon dans un recueil de récits de voyages. L’édition, intitulée Descrizione dell’Africa (Description de l’Afrique), diffère significativement du manuscrit original. Elle subit maintes modifications par Ramusio dont l’objectif est de livrer un ouvrage qui répond aux attentes des Européens et qui correspond à l’image que l’Occident chrétien se faisait du monde musulman. Cette version a servi de texte de départ aux nombreuses traductions qui ont suivi. La première traduction française, datant de 1556, est réalisée par Jean Temporal, éditeur et imprimeur lyonnais. La deuxième, parue en 1956 et rééditée en 1980, est l’œuvre d’Alexis Épaulard; elle s’appuie partiellement sur le manuscrit original, mais aussi sur la version imprimée de Ramusio. Notre travail consiste à confronter les deux traductions françaises à l’édition de Ramusio. Nous tenterons de démontrer que les deux traducteurs français sont lourdement intervenus dans le texte traduit, et ce afin de servir des desseins expansionnistes et colonialistes. Notre recherche met en évidence la prise de position des traducteurs et les idéologies qui affectent l’appréciation du livre. Pour ce faire, nous procédons à l’analyse des traductions au niveau textuel et au niveau paratextuel tout en mettant en évidence le contexte historique et politico-idéologique entourant la parution de ces deux traductions françaises. Nous consacrons une attention toute particulière au choix des mots, aux allusions et aux stratégies utilisées par les traducteurs et les éditeurs. Les travaux de Maria Tymoczko sur la traduction et l’engagement politique fournissent le cadre de référence théorique de cette recherche, tout autant que les textes d’Edward Said sur l’orientalisme et le postcolonialisme. Il ressort de cette recherche que ces traductions françaises sont empreintes d’une idéologie eurocentrée visant à conforter les ambitions hégémoniques en terre africaine.
Resumo:
D'acteur à réalisateur, de scénariste à producteur, Hubert Aquin a transporté à l'écran la même pratique du faux par laquelle il s'était illustré comme romancier. Cet essai retrace brièvement la carrière médiatique de l'auteur, en insistant sur quelques jalons qui permettent d'éclairer la logique de l'imposture qui est au coeur de son oeuvre. En établissant un parallèle entre le dernier roman publié d'Aquin, Neige noire, et le dernier film complété par Orson Welles, F for Fake, il s'agit moins d'arguer en faveur d'une influence du cinéaste américain sur le romancier québécois, que de montrer en quoi la figure géniale du faussaire lie ces deux grands auteurs.
Resumo:
Latent variable models in finance originate both from asset pricing theory and time series analysis. These two strands of literature appeal to two different concepts of latent structures, which are both useful to reduce the dimension of a statistical model specified for a multivariate time series of asset prices. In the CAPM or APT beta pricing models, the dimension reduction is cross-sectional in nature, while in time-series state-space models, dimension is reduced longitudinally by assuming conditional independence between consecutive returns, given a small number of state variables. In this paper, we use the concept of Stochastic Discount Factor (SDF) or pricing kernel as a unifying principle to integrate these two concepts of latent variables. Beta pricing relations amount to characterize the factors as a basis of a vectorial space for the SDF. The coefficients of the SDF with respect to the factors are specified as deterministic functions of some state variables which summarize their dynamics. In beta pricing models, it is often said that only the factorial risk is compensated since the remaining idiosyncratic risk is diversifiable. Implicitly, this argument can be interpreted as a conditional cross-sectional factor structure, that is, a conditional independence between contemporaneous returns of a large number of assets, given a small number of factors, like in standard Factor Analysis. We provide this unifying analysis in the context of conditional equilibrium beta pricing as well as asset pricing with stochastic volatility, stochastic interest rates and other state variables. We address the general issue of econometric specifications of dynamic asset pricing models, which cover the modern literature on conditionally heteroskedastic factor models as well as equilibrium-based asset pricing models with an intertemporal specification of preferences and market fundamentals. We interpret various instantaneous causality relationships between state variables and market fundamentals as leverage effects and discuss their central role relative to the validity of standard CAPM-like stock pricing and preference-free option pricing.
Resumo:
La causalité au sens de Granger est habituellement définie par la prévisibilité d'un vecteur de variables par un autre une période à l'avance. Récemment, Lutkepohl (1990) a proposé de définir la non-causalité entre deux variables (ou vecteurs) par la non-prévisibilité à tous les délais dans le futur. Lorsqu'on considère plus de deux vecteurs (ie. lorsque l'ensemble d'information contient les variables auxiliaires), ces deux notions ne sont pas équivalentes. Dans ce texte, nous généralisons d'abord les notions antérieures de causalités en considérant la causalité à un horizon donné h arbitraire, fini ou infini. Ensuite, nous dérivons des conditions nécessaires et suffisantes de non-causalité entre deux vecteurs de variables (à l'intérieur d'un plus grand vecteur) jusqu'à un horizon donné h. Les modèles considérés incluent les autoregressions vectorielles, possiblement d'ordre infini, et les modèles ARIMA multivariés. En particulier, nous donnons des conditions de séparabilité et de rang pour la non-causalité jusqu'à un horizon h, lesquelles sont relativement simples à vérifier.