190 resultados para Ablation génique conditionnelle
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Les professionnels de la santé et les familles pour qui des enfants qui participent à la recherche en génétique ou qui nécessitent des services génétiques spécialisés, y compris, le dépistage génétique, seront confrontés à des interrogations non seulement médicales, mais sociales, éthiques et juridiques liées à la génétique en neurologie pédiatrique. Les enfants se retrouvent souvent au centre d’innovations dans le cadre de recherches en génétique et leurs besoins uniques soulèvent des inquiétudes quant aux risques et aux bénéfices associés à cette recherche. Plus précisément, le consentement, l’utilisation de base de données génétique et la thérapie génique soulèvent des enjeux particuliers. En plus de ces enjeux, des risques psychologiques peuvent aussi leur être associés. À la lumière de l’analyse de lignes directrices nationales et internationales, il sera question, dans cet article, des bénéfices et de l’impact des technologies génétiques chez l’enfant. Les médecins, les législateurs et les familles doivent être informés de ces lignes directrices et doivent comprendre les enjeux éthiques et psychologiques liés à la génétique en neurologie pédiatrique. // Health care providers and families with children who participate in genetic research or who need specialized genetic services, including genetic testing, will encounter not only medical but difficult social, ethical, and legal questions surrounding pediatric genetic neurology. Children are often at the center of much of the genetic revolution and their unique needs raise special concerns about the risks and the benefits associated with genetic research, particularly the issues of consent, the use of genetic databases, and gene therapy. Moreover, genetic research and testing raise important psychosocial risks. In this article we discuss some of the benefits and consequences of genetic technologies for children in relation to national and international guidelines. In particular, physicians, policy-makers, and families should be knowledgeable about the guidelines and have good understanding of the psychosocial and ethical issues associated with genetics in pediatric neurology.
Resumo:
Latent variable models in finance originate both from asset pricing theory and time series analysis. These two strands of literature appeal to two different concepts of latent structures, which are both useful to reduce the dimension of a statistical model specified for a multivariate time series of asset prices. In the CAPM or APT beta pricing models, the dimension reduction is cross-sectional in nature, while in time-series state-space models, dimension is reduced longitudinally by assuming conditional independence between consecutive returns, given a small number of state variables. In this paper, we use the concept of Stochastic Discount Factor (SDF) or pricing kernel as a unifying principle to integrate these two concepts of latent variables. Beta pricing relations amount to characterize the factors as a basis of a vectorial space for the SDF. The coefficients of the SDF with respect to the factors are specified as deterministic functions of some state variables which summarize their dynamics. In beta pricing models, it is often said that only the factorial risk is compensated since the remaining idiosyncratic risk is diversifiable. Implicitly, this argument can be interpreted as a conditional cross-sectional factor structure, that is, a conditional independence between contemporaneous returns of a large number of assets, given a small number of factors, like in standard Factor Analysis. We provide this unifying analysis in the context of conditional equilibrium beta pricing as well as asset pricing with stochastic volatility, stochastic interest rates and other state variables. We address the general issue of econometric specifications of dynamic asset pricing models, which cover the modern literature on conditionally heteroskedastic factor models as well as equilibrium-based asset pricing models with an intertemporal specification of preferences and market fundamentals. We interpret various instantaneous causality relationships between state variables and market fundamentals as leverage effects and discuss their central role relative to the validity of standard CAPM-like stock pricing and preference-free option pricing.
Resumo:
In this paper, we develop finite-sample inference procedures for stationary and nonstationary autoregressive (AR) models. The method is based on special properties of Markov processes and a split-sample technique. The results on Markovian processes (intercalary independence and truncation) only require the existence of conditional densities. They are proved for possibly nonstationary and/or non-Gaussian multivariate Markov processes. In the context of a linear regression model with AR(1) errors, we show how these results can be used to simplify the distributional properties of the model by conditioning a subset of the data on the remaining observations. This transformation leads to a new model which has the form of a two-sided autoregression to which standard classical linear regression inference techniques can be applied. We show how to derive tests and confidence sets for the mean and/or autoregressive parameters of the model. We also develop a test on the order of an autoregression. We show that a combination of subsample-based inferences can improve the performance of the procedure. An application to U.S. domestic investment data illustrates the method.
Resumo:
A wide range of tests for heteroskedasticity have been proposed in the econometric and statistics literature. Although a few exact homoskedasticity tests are available, the commonly employed procedures are quite generally based on asymptotic approximations which may not provide good size control in finite samples. There has been a number of recent studies that seek to improve the reliability of common heteroskedasticity tests using Edgeworth, Bartlett, jackknife and bootstrap methods. Yet the latter remain approximate. In this paper, we describe a solution to the problem of controlling the size of homoskedasticity tests in linear regression contexts. We study procedures based on the standard test statistics [e.g., the Goldfeld-Quandt, Glejser, Bartlett, Cochran, Hartley, Breusch-Pagan-Godfrey, White and Szroeter criteria] as well as tests for autoregressive conditional heteroskedasticity (ARCH-type models). We also suggest several extensions of the existing procedures (sup-type of combined test statistics) to allow for unknown breakpoints in the error variance. We exploit the technique of Monte Carlo tests to obtain provably exact p-values, for both the standard and the new tests suggested. We show that the MC test procedure conveniently solves the intractable null distribution problem, in particular those raised by the sup-type and combined test statistics as well as (when relevant) unidentified nuisance parameter problems under the null hypothesis. The method proposed works in exactly the same way with both Gaussian and non-Gaussian disturbance distributions [such as heavy-tailed or stable distributions]. The performance of the procedures is examined by simulation. The Monte Carlo experiments conducted focus on : (1) ARCH, GARCH, and ARCH-in-mean alternatives; (2) the case where the variance increases monotonically with : (i) one exogenous variable, and (ii) the mean of the dependent variable; (3) grouped heteroskedasticity; (4) breaks in variance at unknown points. We find that the proposed tests achieve perfect size control and have good power.
Resumo:
In this paper, we introduce a new approach for volatility modeling in discrete and continuous time. We follow the stochastic volatility literature by assuming that the variance is a function of a state variable. However, instead of assuming that the loading function is ad hoc (e.g., exponential or affine), we assume that it is a linear combination of the eigenfunctions of the conditional expectation (resp. infinitesimal generator) operator associated to the state variable in discrete (resp. continuous) time. Special examples are the popular log-normal and square-root models where the eigenfunctions are the Hermite and Laguerre polynomials respectively. The eigenfunction approach has at least six advantages: i) it is general since any square integrable function may be written as a linear combination of the eigenfunctions; ii) the orthogonality of the eigenfunctions leads to the traditional interpretations of the linear principal components analysis; iii) the implied dynamics of the variance and squared return processes are ARMA and, hence, simple for forecasting and inference purposes; (iv) more importantly, this generates fat tails for the variance and returns processes; v) in contrast to popular models, the variance of the variance is a flexible function of the variance; vi) these models are closed under temporal aggregation.
Resumo:
The GARCH and Stochastic Volatility paradigms are often brought into conflict as two competitive views of the appropriate conditional variance concept : conditional variance given past values of the same series or conditional variance given a larger past information (including possibly unobservable state variables). The main thesis of this paper is that, since in general the econometrician has no idea about something like a structural level of disaggregation, a well-written volatility model should be specified in such a way that one is always allowed to reduce the information set without invalidating the model. To this respect, the debate between observable past information (in the GARCH spirit) versus unobservable conditioning information (in the state-space spirit) is irrelevant. In this paper, we stress a square-root autoregressive stochastic volatility (SR-SARV) model which remains true to the GARCH paradigm of ARMA dynamics for squared innovations but weakens the GARCH structure in order to obtain required robustness properties with respect to various kinds of aggregation. It is shown that the lack of robustness of the usual GARCH setting is due to two very restrictive assumptions : perfect linear correlation between squared innovations and conditional variance on the one hand and linear relationship between the conditional variance of the future conditional variance and the squared conditional variance on the other hand. By relaxing these assumptions, thanks to a state-space setting, we obtain aggregation results without renouncing to the conditional variance concept (and related leverage effects), as it is the case for the recently suggested weak GARCH model which gets aggregation results by replacing conditional expectations by linear projections on symmetric past innovations. Moreover, unlike the weak GARCH literature, we are able to define multivariate models, including higher order dynamics and risk premiums (in the spirit of GARCH (p,p) and GARCH in mean) and to derive conditional moment restrictions well suited for statistical inference. Finally, we are able to characterize the exact relationships between our SR-SARV models (including higher order dynamics, leverage effect and in-mean effect), usual GARCH models and continuous time stochastic volatility models, so that previous results about aggregation of weak GARCH and continuous time GARCH modeling can be recovered in our framework.
Resumo:
We examine the relationship between the risk premium on the S&P 500 index return and its conditional variance. We use the SMEGARCH - Semiparametric-Mean EGARCH - model in which the conditional variance process is EGARCH while the conditional mean is an arbitrary function of the conditional variance. For monthly S&P 500 excess returns, the relationship between the two moments that we uncover is nonlinear and nonmonotonic. Moreover, we find considerable persistence in the conditional variance as well as a leverage effect, as documented by others. Moreover, the shape of these relationships seems to be relatively stable over time.
Resumo:
Recent work suggests that the conditional variance of financial returns may exhibit sudden jumps. This paper extends a non-parametric procedure to detect discontinuities in otherwise continuous functions of a random variable developed by Delgado and Hidalgo (1996) to higher conditional moments, in particular the conditional variance. Simulation results show that the procedure provides reasonable estimates of the number and location of jumps. This procedure detects several jumps in the conditional variance of daily returns on the S&P 500 index.
Resumo:
This paper studies the proposition that an inflation bias can arise in a setup where a central banker with asymmetric preferences targets the natural unemployment rate. Preferences are asymmetric in the sense that positive unemployment deviations from the natural rate are weighted more (or less) severely than negative deviations in the central banker's loss function. The bias is proportional to the conditional variance of unemployment. The time-series predictions of the model are evaluated using data from G7 countries. Econometric estimates support the prediction that the conditional variance of unemployment and the rate of inflation are positively related.
Resumo:
Conditional heteroskedasticity is an important feature of many macroeconomic and financial time series. Standard residual-based bootstrap procedures for dynamic regression models treat the regression error as i.i.d. These procedures are invalid in the presence of conditional heteroskedasticity. We establish the asymptotic validity of three easy-to-implement alternative bootstrap proposals for stationary autoregressive processes with m.d.s. errors subject to possible conditional heteroskedasticity of unknown form. These proposals are the fixed-design wild bootstrap, the recursive-design wild bootstrap and the pairwise bootstrap. In a simulation study all three procedures tend to be more accurate in small samples than the conventional large-sample approximation based on robust standard errors. In contrast, standard residual-based bootstrap methods for models with i.i.d. errors may be very inaccurate if the i.i.d. assumption is violated. We conclude that in many empirical applications the proposed robust bootstrap procedures should routinely replace conventional bootstrap procedures for autoregressions based on the i.i.d. error assumption.
Resumo:
Ce mémoire porte sur la constitution du tiers secteur français en tant qu’acteur social et politique. Dans de nombreux pays, les relations entre l’État et les organismes mutualistes, coopératifs et associatifs de la société civile (un ensemble hétérogène qu’on appelle ici le « tiers secteur ») ont été récemment formalisées par des partenariats. En France, cette institutionnalisation s’est concrétisée en 2001 par la signature d’une Charte (CPCA). Nous explorons l’hypothèse qu’à travers l’institutionnalisation, le tiers secteur français se construit en tant qu’acteur –ayant une (ou des) identités propres de même qu’un projet de société relativement bien défini. La perspective dominante présente dans la littérature internationale traitant de l’institutionnalisation des rapports entre l’État et le tiers secteur est celle d’une instrumentalisation des organisations du tiers secteur au détriment de leurs spécificités et de leur autonomie. Cette perspective nous semble limitative, car elle semble être aveugle à la capacité d’action des organisations. Par conséquent, dans ce mémoire, nous cherchons à comprendre si une transformation identitaire a eu lieu ou est en cours, au sein du tiers secteur français, et donc s’il se transforme en acteur collectif. Pour apporter certains éléments de réponse à nos hypothèses et questions de recherche, nous avons effectué une analyse des discours via deux sources de données; des textes de réflexion rédigés par des acteurs clés du tiers secteur français et des entretiens effectués avec certains d’entre eux au printemps 2003 et à l’automne 2005. Sur la base de deux inspirations théoriques (Hobson et Lindholm, 1997 et Melucci, 1991), notre analyse a été effectuée en deux étapes. Une première phase nous a permis d’identifier deux cadres cognitifs à partir desquels se définissent les acteurs du tiers secteur français, les cadres « association » et « économie solidaire ». Une deuxième phase d’analyse consistait à déterminer si les deux cadres cognitifs pouvaient être considérés comme étant des tensions existant au sein d’un seul et même acteur collectif. Nos résultats nous permettent de conclure que les organisations du tiers secteur français ne se perçoivent pas globalement comme un ensemble unifié. Néanmoins, nous avons pu dégager certains éléments qui démontrent que les cadres sont partiellement conciliables. Cette conciliation est grandement subordonnée aux contextes sociopolitiques et économiques français, européen et international et est également conditionnelle à la découverte d’un mode de fonctionnement convenant à tous les acteurs.
Resumo:
Les maladies cardiovasculaires (MCV) sont la principale cause de décès dans les pays occidentaux et constituent la principale complication associée au diabète. La lipoprotéine lipase (LPL) est une enzyme clé du métabolisme des lipides et est responsable de l'hydrolyse des lipoprotéines riches en triglycérides (TG). Plusieurs études ont démontré que la LPL sécrétée par les macrophages dans la paroi artérielle est pro-athérogénique. La dysfonction endothéliale caractérise les stades précoces du processus athérosclérotique. Il a été observé qu’un récepteur nouvellement identifié des lipoprotéines de basse densité oxydées (LDLox), le récepteur de type lectine des LDLox (LOX-1), est fortement exprimé dans les lésions athérosclérotiques humaines et dans l’aorte de rats diabétiques, suggérant un rôle clé de LOX-1 dans la pathogénèse de l’athérosclérose diabétique. Au vu du rôle potentiel de la LPL macrophagique et du LOX-1 dans l’athérosclérose associée au diabète de type 2, nous avons évalué la régulation de ces deux molécules pro-athérogéniques par des facteurs métaboliques et inflammatoires augmentés dans le diabète, soit la leptine, l’acide linoléique (LA) et la protéine C-réactive (CRP). Nos résultats démontrent que : 1) Dans les cellules endothéliales aortiques humaines (HAECs), LA augmente l’expression protéique de LOX-1 de façon temps- et dose-dépendante; 2) La pré-incubation de HAECs avec des antioxydants et des inhibiteurs de la NADPH oxydase, de la protéine kinase C (PKC) et du facteur nucléaire-kappa B (NF-kB), inhibe l’effet stimulant de LA sur l’expression protéique de LOX-1; 3) Dans les HAECs traitées avec LA, on observe une augmentation d’expression des isoformes classiques de la PKC; 4) LA augmente de manière significative l’expression génique de LOX-1 ainsi que la liaison des protéines nucléaires extraites des HAECs à la séquence régulatrice NF-kB présente dans le promoteur du gène de LOX-1; 5) LA augmente, via LOX-1, la captation des LDLox par les cellules endothéliales. Pris dans leur ensemble, ces résultats démontrent que LA augmente l’expression endothéliale de LOX-1 in vitro et appuient le rôle clé de LA dans la dysfonction endothéliale associée au diabète. Au vu de nos études antérieures démontrant qu’une expression accrue de LPL macrophagique chez les patients diabétiques de type 2 et que l’augmentation de facteurs métaboliques dans cette maladie, soit l’homocystéine (Hcys), les acides gras et les produits terminaux de glycation (AGE), accroissent l’expression de la LPL macrophagique, nous avons par la suite déterminé l’effet, in vitro, de deux autres facteurs métaboliques et inflammatoires surexprimés dans le diabète, soit la leptine et la CRP, sur l’expression de la LPL macrophagique. Les concentrations plasmatiques de leptine sont élevées chez les patients diabétiques et sont associées à un accroissement des risques cardiovasculaires. Nous avons démontré que : 1) Dans les macrophages humains, la leptine augmente l’expression de la LPL, tant au niveau génique que protéique; 2) L’effet stimulant de la leptine sur la LPL est aboli par la pré-incubation avec un anticorps dirigé contre les récepteurs à la leptine (Ob-R), des inhibiteurs de la PKC et des antioxydants; 3) La leptine augmente l’expression membranaire des isoformes classiques de la PKC et la diminution de l’expression endogène de la PKC, abolit l’effet de la leptine sur l’expression de la LPL macrophagique; 4) Dans les macrophages murins, la leptine augmente le taux de synthèse de la LPL et augmente la liaison de protéines nucléaires à la séquence protéine activée-1 (AP-1) du promoteur du gène de la LPL. Ces observations supportent la possibilité que la leptine puisse représenter un facteur stimulant de la LPL macrophagique dans le diabète. Finalement, nous avons déterminé, in vitro, l’effet de la CRP sur l’expression de la LPL macrophagique. La CRP est une molécule inflammatoire et un puissant prédicteur d’événements cardiovasculaires. Des concentrations élevées de CRP sérique sont documentées chez les patients diabétiques de type 2. Nous avons démontré que : 1) Dans les macrophages humains, la CRP augmente l’expression de la LPL au niveau génique et protéique et la liaison de la CRP aux récepteurs CD32 est nécessaire pour médier ses effets; 2) La pré-incubation de macrophages humains avec des antioxydants, des inhibiteurs de la PKC et de la protéine kinase mitogénique activée (MAPK), prévient l’induction de la LPL par la CRP; 3) La CRP augmente l’activité de la LPL, la génération intracellulaire d’espèces radicalaires oxygénées (ROS), l’expression d’isoformes classiques de la PKC et la phosphorylation des kinases extracellulaires régulées 1/2 (ERK 1/2); 4) Les macrophages murins traités avec la CRP démontrent une augmentation de la liaison des protéines nucléaires à la séquence AP-1 du promoteur du gène de la LPL. Ces données suggèrent que la LPL puisse représenter un nouveau facteur médiant les effets délétères de la CRP dans la vasculopathie diabétique. Dans l’ensemble nos études démontrent le rôle clé de facteurs métaboliques et inflammatoires dans la régulation vasculaire de la LPL et du LOX-1 dans le diabète. Nos données suggèrent que la LPL et le LOX-1 puissent représenter des contributeurs clé de l’athérogénèse accélérée associée au diabète chez l’humain. Mots-clés : athérosclérose, maladies cardiovasculaires, diabète de type 2, macrophage, LPL, cellules endothéliales, LOX-1, stress oxydatif, leptine, LA, CRP.