999 resultados para Analyse moyenne-variance


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette thèse de doctorat consiste en trois chapitres qui traitent des sujets de choix de portefeuilles de grande taille, et de mesure de risque. Le premier chapitre traite du problème d’erreur d’estimation dans les portefeuilles de grande taille, et utilise le cadre d'analyse moyenne-variance. Le second chapitre explore l'importance du risque de devise pour les portefeuilles d'actifs domestiques, et étudie les liens entre la stabilité des poids de portefeuille de grande taille et le risque de devise. Pour finir, sous l'hypothèse que le preneur de décision est pessimiste, le troisième chapitre dérive la prime de risque, une mesure du pessimisme, et propose une méthodologie pour estimer les mesures dérivées. Le premier chapitre améliore le choix optimal de portefeuille dans le cadre du principe moyenne-variance de Markowitz (1952). Ceci est motivé par les résultats très décevants obtenus, lorsque la moyenne et la variance sont remplacées par leurs estimations empiriques. Ce problème est amplifié lorsque le nombre d’actifs est grand et que la matrice de covariance empirique est singulière ou presque singulière. Dans ce chapitre, nous examinons quatre techniques de régularisation pour stabiliser l’inverse de la matrice de covariance: le ridge, spectral cut-off, Landweber-Fridman et LARS Lasso. Ces méthodes font chacune intervenir un paramètre d’ajustement, qui doit être sélectionné. La contribution principale de cette partie, est de dériver une méthode basée uniquement sur les données pour sélectionner le paramètre de régularisation de manière optimale, i.e. pour minimiser la perte espérée d’utilité. Précisément, un critère de validation croisée qui prend une même forme pour les quatre méthodes de régularisation est dérivé. Les règles régularisées obtenues sont alors comparées à la règle utilisant directement les données et à la stratégie naïve 1/N, selon leur perte espérée d’utilité et leur ratio de Sharpe. Ces performances sont mesurée dans l’échantillon (in-sample) et hors-échantillon (out-of-sample) en considérant différentes tailles d’échantillon et nombre d’actifs. Des simulations et de l’illustration empirique menées, il ressort principalement que la régularisation de la matrice de covariance améliore de manière significative la règle de Markowitz basée sur les données, et donne de meilleurs résultats que le portefeuille naïf, surtout dans les cas le problème d’erreur d’estimation est très sévère. Dans le second chapitre, nous investiguons dans quelle mesure, les portefeuilles optimaux et stables d'actifs domestiques, peuvent réduire ou éliminer le risque de devise. Pour cela nous utilisons des rendements mensuelles de 48 industries américaines, au cours de la période 1976-2008. Pour résoudre les problèmes d'instabilité inhérents aux portefeuilles de grandes tailles, nous adoptons la méthode de régularisation spectral cut-off. Ceci aboutit à une famille de portefeuilles optimaux et stables, en permettant aux investisseurs de choisir différents pourcentages des composantes principales (ou dégrées de stabilité). Nos tests empiriques sont basés sur un modèle International d'évaluation d'actifs financiers (IAPM). Dans ce modèle, le risque de devise est décomposé en deux facteurs représentant les devises des pays industrialisés d'une part, et celles des pays émergents d'autres part. Nos résultats indiquent que le risque de devise est primé et varie à travers le temps pour les portefeuilles stables de risque minimum. De plus ces stratégies conduisent à une réduction significative de l'exposition au risque de change, tandis que la contribution de la prime risque de change reste en moyenne inchangée. Les poids de portefeuille optimaux sont une alternative aux poids de capitalisation boursière. Par conséquent ce chapitre complète la littérature selon laquelle la prime de risque est importante au niveau de l'industrie et au niveau national dans la plupart des pays. Dans le dernier chapitre, nous dérivons une mesure de la prime de risque pour des préférences dépendent du rang et proposons une mesure du degré de pessimisme, étant donné une fonction de distorsion. Les mesures introduites généralisent la mesure de prime de risque dérivée dans le cadre de la théorie de l'utilité espérée, qui est fréquemment violée aussi bien dans des situations expérimentales que dans des situations réelles. Dans la grande famille des préférences considérées, une attention particulière est accordée à la CVaR (valeur à risque conditionnelle). Cette dernière mesure de risque est de plus en plus utilisée pour la construction de portefeuilles et est préconisée pour compléter la VaR (valeur à risque) utilisée depuis 1996 par le comité de Bâle. De plus, nous fournissons le cadre statistique nécessaire pour faire de l’inférence sur les mesures proposées. Pour finir, les propriétés des estimateurs proposés sont évaluées à travers une étude Monte-Carlo, et une illustration empirique en utilisant les rendements journaliers du marché boursier américain sur de la période 2000-2011.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

In this paper we propose exact likelihood-based mean-variance efficiency tests of the market portfolio in the context of Capital Asset Pricing Model (CAPM), allowing for a wide class of error distributions which include normality as a special case. These tests are developed in the frame-work of multivariate linear regressions (MLR). It is well known however that despite their simple statistical structure, standard asymptotically justified MLR-based tests are unreliable. In financial econometrics, exact tests have been proposed for a few specific hypotheses [Jobson and Korkie (Journal of Financial Economics, 1982), MacKinlay (Journal of Financial Economics, 1987), Gib-bons, Ross and Shanken (Econometrica, 1989), Zhou (Journal of Finance 1993)], most of which depend on normality. For the gaussian model, our tests correspond to Gibbons, Ross and Shanken’s mean-variance efficiency tests. In non-gaussian contexts, we reconsider mean-variance efficiency tests allowing for multivariate Student-t and gaussian mixture errors. Our framework allows to cast more evidence on whether the normality assumption is too restrictive when testing the CAPM. We also propose exact multivariate diagnostic checks (including tests for multivariate GARCH and mul-tivariate generalization of the well known variance ratio tests) and goodness of fit tests as well as a set estimate for the intervening nuisance parameters. Our results [over five-year subperiods] show the following: (i) multivariate normality is rejected in most subperiods, (ii) residual checks reveal no significant departures from the multivariate i.i.d. assumption, and (iii) mean-variance efficiency tests of the market portfolio is not rejected as frequently once it is allowed for the possibility of non-normal errors.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

INTRODUCTION. La guérison rapide des sites donneurs des greffes cutanées favorise la survie des victimes de brûlures graves (>50 % de superficie brûlée). La mortalité élevée de ces patients est attribuable au fait que la superficie des brûlures excède celle de la peau saine. Des cultures épithéliales autologues (CEA) sont des feuillets de kératinocytes produits en culture à partir de la peau du patient. Cette étude a évalué l’effet des CEA sur l'épithélialisation des sites donneurs chez les grands brûlés. MÉTHODES. Tous les patients recevant des CEA ont été prospectivement inclus. Les plaies des sites donneurs ont été recouvertes de CEA, sauf pour une région contrôle randomisée de 7 x 7 cm. Des biopsies faites sur la greffe de peau ont permis de contrôler la profondeur des plaies sur les sites donneurs. Il y avait deux types de contrôles, avec gaze non adhérente trempée dans le milieu de culture ou dans le salin. L’épithélialisation était quantifiée globalement (% d’épithélialisation par photographie) et histologiquement (par biopsie au poinçon) à simple insu. La guérison des zones de contrôle et CEA était comparée par analyse de variance et par le test de Student. RÉSULTATS. Entre 2008 et 2009, 6 patients furent recrutés avec un total de 11 sites donneurs. Ces patients avaient en moyenne 43.5 ans, 56 % de superficie brûlée, 45% de brûlure pleine épaisseur, 66% avaient une brûlure d’inhalation, 75 jours de séjour. Il n’y a aucune corrélation entre le pourcentage d’épithélialisation et l’épaisseur du prélèvement des greffes (Pearson 0.19). Le score photographique est significativement influencé par le traitement (CEA vs Contrôle; p = 0,039) et par le jour postopératoire (p < 0,001). Le temps moyen pour atteindre un score photographique de guérison pour les zones contrôles fut de 10.2 jours contre 8.6 jours pour le CEA (p = 0,021). A l’évaluation histologique, les sites donneurs traités par le milieu de culture ont évolué aussi favorablement que ceux traités par des feuillets de CEA. CONCLUSION. L’utilisation de CEA sur les sites donneurs semble accélérer leur épithélialisation chez les victimes de brûlures graves. Cet effet est probablement le résultat d’une stimulation de la réépithélialisation innée de la plaie, plutôt que par une adhérence des feuillets de kératinocytes cultivés à la surface de la plaie.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Cette thèse examine le rôle du pouvoir de marché dans le marché bancaire. L’emphase est mis sur la prise de risque, les économies d’échelle, l’efficacité économique du marché et la transmission des chocs. Le premier chapitre présente un modèle d’équilibre général dynamique stochastique en économie ouverte comprenant un marché bancaire en concurrence monopolistique. Suivant l’hypothèse de Krugman (1979, 1980) sur la relation entre les économies d’échelle et les exportations, les banques doivent défrayer un coût de transaction pour échanger à l’étranger qui diminue à mesure que le volume de leurs activités locales augmente. Cela incite les banques à réduire leur marge locale afin de profiter davantage du marché extérieur. Le modèle est solutionné et simulé pour divers degrés de concentration dans le marché bancaire. Les résultats obtenus indiquent que deux forces contraires, les économies d’échelle et le pouvoir de marché, s’affrontent lorsque le marché se concentre. La concentration permet aussi aux banques d’accroître leurs activités étrangères, ce qui les rend en contrepartie plus vulnérables aux chocs extérieurs. Le deuxième chapitre élabore un cadre de travail semblable, mais à l’intérieur duquel les banques font face à un risque de crédit. Celui-ci est partiellement assuré par un collatéral fourni par les entrepreneurs et peut être limité à l’aide d’un effort financier. Le modèle est solutionné et simulé pour divers degrés de concentration dans le marché bancaire. Les résultats montrent qu’un plus grand pouvoir de marché réduit la taille du marché financier et de la production à l’état stationnaire, mais incite les banques à prendre moins de risques. De plus, les économies dont le marché bancaire est fortement concentré sont moins sensibles à certains chocs puisque les marges plus élevés donnent initialement de la marge de manoeuvre aux banques en cas de chocs négatifs. Cet effet modérateur est éliminé lorsqu’il est possible pour les banques d’entrer et de sortir librement du marché. Une autre extension avec économies d’échelle montre que sous certaines conditions, un marché moyennement concentré est optimal pour l’économie. Le troisième chapitre utilise un modèle en analyse de portefeuille de type Moyenne-Variance afin de représenter une banque détenant du pouvoir de marché. Le rendement des dépôts et des actifs peut varier selon la quantité échangée, ce qui modifie le choix de portefeuille de la banque. Celle-ci tend à choisir un portefeuille dont la variance est plus faible lorsqu’elle est en mesure d’obtenir un rendement plus élevé sur un actif. Le pouvoir de marché sur les dépôts amène un résultat sembable pour un pouvoir de marché modéré, mais la variance finit par augmenter une fois un certain niveau atteint. Les résultats sont robustes pour différentes fonctions de demandes.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

En 1983, un « nouveau » type de logiciels que nous avons appelé « idéateur » est apparu sur le marché de la micro-informatique. Ces logiciels combinent les facilités du traitement de textes avec l'utilisation particulière du « chaînage » de texte. Ce chaînage permet entre autre les manipulations suivantes du texte; classer, mettre en ordre prioritaire, sous-catégoriser des ensembles, lancer les items au hasard, effacer, déplacer ou copier un ou des items, etc. (Pour plus de détails, voir le chapitre 1.2 et les annexes 1 à 3). Après une étude pour situer le cadre de notre recherche (voir le chapitre II) et la traduction du logiciel MaxThink, nous avons introduit cet idéateur dans une classe de français correctif, de niveau collégial. Nous avons choisis ces sujets parce ces étudiant-e-s se servaient déjà de l'ordinateur à l'intérieur des cours et qu'ils (elles) avaient intérêt (pensions-nous) à utiliser l’idéateur pour améliorer leur français. Tous ces sujets ont eu à suivre le cours sur la manipulation de MaxThink. Un design expérimental de catégorie « semi-contrôlée » a été mis en place pour isoler l'influence des trois instruments servant à la composition ; l'idéateur (MaxThink), un traitement de texte traditionnel (Editexte) et le crayon/papier. Le pré-test et le post-test consistant à composer sur un thème déterminé était à chaque fois précédé d'un brainstorming afin de générer une liste d'idées". Par la suite, les textes ont été soumis à trois juges qui ont eu à coter la cohérence globale individuelle pré-test/post-test et la cohérence de groupe au pré-test ainsi qu'au post-test. Deux analyses statistiques non-paramétriques utiles pour un nombre restreint de sujets (trois sous-groupes de quatre sujets) ont été utilisées: analyse de variance (formule KRUSKAL-WALLIS) et analyse des probabilités d'occurrence des distributions (formule HODGES-LEHMANN). En conclusion, nos recommandations tiennent compte de l'analyse statistique des résultats et des commentaires des étudiant-e-s.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Cette thèse s'intéresse à étudier les propriétés extrémales de certains modèles de risque d'intérêt dans diverses applications de l'assurance, de la finance et des statistiques. Cette thèse se développe selon deux axes principaux, à savoir: Dans la première partie, nous nous concentrons sur deux modèles de risques univariés, c'est-à- dire, un modèle de risque de déflation et un modèle de risque de réassurance. Nous étudions le développement des queues de distribution sous certaines conditions des risques commun¬s. Les principaux résultats sont ainsi illustrés par des exemples typiques et des simulations numériques. Enfin, les résultats sont appliqués aux domaines des assurances, par exemple, les approximations de Value-at-Risk, d'espérance conditionnelle unilatérale etc. La deuxième partie de cette thèse est consacrée à trois modèles à deux variables: Le premier modèle concerne la censure à deux variables des événements extrême. Pour ce modèle, nous proposons tout d'abord une classe d'estimateurs pour les coefficients de dépendance et la probabilité des queues de distributions. Ces estimateurs sont flexibles en raison d'un paramètre de réglage. Leurs distributions asymptotiques sont obtenues sous certaines condi¬tions lentes bivariées de second ordre. Ensuite, nous donnons quelques exemples et présentons une petite étude de simulations de Monte Carlo, suivie par une application sur un ensemble de données réelles d'assurance. L'objectif de notre deuxième modèle de risque à deux variables est l'étude de coefficients de dépendance des queues de distributions obliques et asymétriques à deux variables. Ces distri¬butions obliques et asymétriques sont largement utiles dans les applications statistiques. Elles sont générées principalement par le mélange moyenne-variance de lois normales et le mélange de lois normales asymétriques d'échelles, qui distinguent la structure de dépendance de queue comme indiqué par nos principaux résultats. Le troisième modèle de risque à deux variables concerne le rapprochement des maxima de séries triangulaires elliptiques obliques. Les résultats théoriques sont fondés sur certaines hypothèses concernant le périmètre aléatoire sous-jacent des queues de distributions. -- This thesis aims to investigate the extremal properties of certain risk models of interest in vari¬ous applications from insurance, finance and statistics. This thesis develops along two principal lines, namely: In the first part, we focus on two univariate risk models, i.e., deflated risk and reinsurance risk models. Therein we investigate their tail expansions under certain tail conditions of the common risks. Our main results are illustrated by some typical examples and numerical simu¬lations as well. Finally, the findings are formulated into some applications in insurance fields, for instance, the approximations of Value-at-Risk, conditional tail expectations etc. The second part of this thesis is devoted to the following three bivariate models: The first model is concerned with bivariate censoring of extreme events. For this model, we first propose a class of estimators for both tail dependence coefficient and tail probability. These estimators are flexible due to a tuning parameter and their asymptotic distributions are obtained under some second order bivariate slowly varying conditions of the model. Then, we give some examples and present a small Monte Carlo simulation study followed by an application on a real-data set from insurance. The objective of our second bivariate risk model is the investigation of tail dependence coefficient of bivariate skew slash distributions. Such skew slash distributions are extensively useful in statistical applications and they are generated mainly by normal mean-variance mixture and scaled skew-normal mixture, which distinguish the tail dependence structure as shown by our principle results. The third bivariate risk model is concerned with the approximation of the component-wise maxima of skew elliptical triangular arrays. The theoretical results are based on certain tail assumptions on the underlying random radius.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Résumé Introduction et hypothèse : Certains acides gras polyinsaturés de type n-3 PUFA, qui sont contenus dans l'huile de poisson, exercent des effets non-énergétiques (fluidité des membranes cellulaires, métabolisme énergétique et prostanoïdes, régulation génique de la réponse inflammatoire). Les mécanismes de la modulation de cette dernière sont encore mal connus. L'administration d'endotoxine (LPS) induit chez les volontaires sains une affection inflammatoire aiguë, comparable à un état grippal, associé à des modifications métaboliques et inflammatoires transitoires, similaires au sepsis. Ce modèle est utilisé de longue date pour l'investigation clinique expérimentale. Cette étude examine les effets d'une supplémentation orale d'huile de poisson sur la réponse inflammatoire (systémique et endocrinienne) de sujets sains soumis à une injection d'endotoxine. L'hypothèse était que la supplémentation d'huile de poisson réduirait les réponses physiologiques à l'endotoxine. Méthodes : Quinze volontaires masculins (âge 26.0±3.1 ans) ont participé à une étude randomisée, contrôlée. Les sujets sont désignés au hasard à recevoir ou non une supplémentation orale : 7.2 g d'huile de poisson par jour correspondant à un apport de 1.1 g/jour d'acides gras 20:5 (n-3, acide écosapentaénoïque) et 0.7 g/jour de 22:6 (n-3, acide docosahexaénoïque). Chaque sujet est investigué deux fois dans des conditions identiques : une fois il reçoit une injection de 2 ng par kg poids corporel de LPS intraveineuse, l'autre fois une injection de placebo. Les variables suivantes sont relevées avant l'intervention et durant les 360 min qui suivent l'injection :signes vitaux, dépense énergétique (EE) et utilisation nette des substrats (calorimétrie indirecte, cinétique du glucose (isotopes stables), taux plasmatique des triglycérides et FFA, du glucose, ainsi que des cytokines et hormones de stress (ACTH, cortisol, Adré, Nor-Adré). Analyses et statistiques :moyennes, déviations standards, analyse de variance (one way, test de Scheffé), différences significatives entre les groupes pour une valeur de p < 0.05. Résultats :L'injection de LPS provoque une augmentation de la température, de la fréquence cardiaque, de la dépense d'énergie et de l'oxydation nette des lipides. On observe une élévation des taux plasmatiques de TNF-a et IL-6, de la glycémie, ainsi qu'une élévation transitoire des concentrations plasmatiques des hormones de stress ACTH, cortisol, adrénaline et noradrénaline. L'huile de poisson atténue significativement la fièvre, la réponse neuro-endocrinienne (ACTH et cortisol) et sympathique (baisse de la noradrénaline plasmatique). Par contre, les taux des cytokines ne sont pas influencés par la supplémentation d'huile de poisson. Conclusion : La supplémentation d'huile de poisson atténue la réponse physiologique à l'endotoxine chez le sujet sain, en particulier la fièvre et la réponse endocrinienne, sans influencer la production des cytokines. Ces résultats soutiennent l'hypothèse que les effets bénéfiques de l'huile de poisson sont principalement caractérisés au niveau du système nerveux central, par des mécanismes non-inflammatoires qui restent encore à élucider.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Cet ouvrage non seulement présente, de façon rigoureuse, les concepts et méthodes statistiques, mais aussi utilise des exemples concrets pour illustrer chaque concept théorique nouvellement introduit. Il présente de façon méticuleuse les notions fondamentales de la théorie des probabilités et de la statistique: bref rappel de l'histoire de la statistique, la statistique descriptive, les distributions discrètes et continues, estimation, tests d'hypothèses, l'analyse de corrélation, l'analyse de régression linéaire simple et multiple, et le modèle d'analyse de variance. Au moyen des exemples et exercices, le lecteur est guidé tout au long de la réalisation du problème. En même temps, l'apprentissage de l'utilisation de Stata se fait progressivement au fil des chapitres. La dernière partie de l'ouvrage propose une introduction à l'utilisation de Stata. Les corrections des exercices figurent à la fin de l'ouvrage, permettant au lecteur de vérifier le niveau de compréhension atteint après chaque étape.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Résumé L'administration par voie orale d'acides gras polyinsaturés de type ω-3 contenus dans l'huile de poisson exerce des effets bénéfiques sur la réponse métabolique et inflammatoire chez des sujets sains soumis à une injection d'endotoxine. Ce modèle expérimental a été validé pour l'investigation clinique. Il simule un sepsis et induit une réponse comparable à un état grippal, accompagné de modifications métaboliques et inflammatoires. L'objectif de cette étude est de déterminer les effets de l'huile de poisson administré par voie intraveineuse sur la réponse à l'endotoxine chez le sujet sain. L'hypothèse est qu'il sera possible de réduire le temps de latence en comparaison avec la voie orale. Pour ce faire, nous avons inclut dans une étude prospective randomisée 16 volontaires sains âgés de 16 à 35 ans et les avons répartis en 2 groupes : l'un recevant une émulsion lipidique contenant les acides gras polyinsaturés EPA et DHA et l'autre, sans traitement, constituant le groupe contrôle. Huit sujets reçoivent une perfusion continue de 0.5g/kg d'huile de poisson durant 6h, 48h et 24h avant la journée test. Lors de cette journée test, tous les volontaires ont reçu une dose d'endotoxine (2mg/kg) au temps t0. Les paramètres vitaux sont monitorés et enregistrés : fréquence cardiaque, respiratoire, pression artérielle, saturation artérielle en oxygène, ainsi que température. Des prises de sang sont effectuées à intervalles réguliers pour déterminer 1) l'incorporation membranaire des thrombocytes en EPA et DHA ; 2) le taux plasmatique d'hormones (insulin, glucagon, cortisol, ACTH et catécholamines), de marqueurs inflammatoires (TNF-α, IL-6, hsCRP), ainsi que de substrats énergétiques (glucose, lactate, acides gras libres et triglycérides). La dépense énergétique est déterminée par calorimétrie indirecte. L'analyse statistique est effectuée par analyse de variance (ANOVA). Les résultats montrent une incorporation significative de EPA et DHA au niveau membranaire des thrombocytes. L'huile de poisson induit une atténuation significative de la réponse neuro-endocrinienne et inflammatoire en réponse à l'injection d'endotoxine avec diminution de la fièvre (-0.7°C), ainsi que du taux plasmatique ,d'ACTH (-68%), TNF-α (-63%) et de noradrénaline (-%) dans le groupe huile de poisson. En conclusion, cette étude montre que la supplémentation de 2 doses d'huile de poisson par voie intraveineuse modifie la composition phospholipidique des membranes des thrombocytes et diminue la réaction inflammatoire et neuroendocrinienne en réponse à l'endotoxine. Ces résultats positifs ouvrent la perspective d'une supplémentation parentérale préopératoire en acides gras polyinsaturés ω-3 pour diminuer le stress lié à la chirurgie majeure.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Résumé Cette étude a démontré l'effet individuel sur la coagulation sanguine humaine des deux principales caractéristiques de la molécule d'hydroxyéthylamidon (HES) : la substitution molaire et le rapport C2/C6. L'analyse par thrombélastographe (TEG®) indique que la molécule de HES dont la substitution molaire est de 0.42 et le rapport C2/C6 de 2.7 a le moins d'effet sur la coagulation sanguine chez l'être humain. Objectifs de l'étude Le développement d'hydroxyéthylamidons (HES) qui ont à la fois peu d'impact sur la coagulation sanguine et une longue persistance intravasculaire est d'un grand intérêt clinique. Une précédente étude in vitro a démontré qu'une solution de HES de haut poids moléculaire et de bas degré de substitution molaire ne compromettait pas plus la coagulation sanguine qu'une solution HES de poids moléculaire moyen (1). La présente étude examine l'effet individuel de la substitution molaire et du rapport C2/C6 d'une solution de HES de haut poids moléculaire (700 kDa) sur la coagulation sanguine. Matériel et méthode Nous avons prélevé du sang chez 30 adultes en bonne santé; le sang a été mélangé avec 6 solutions de HES qui diffèrent par leur degré de substitution molaire (0.42 et 0.51) et leur rapport C2/C6 (2.7, 7 et 14) à trois degrés de dilution : 20%, 40% et 60%. Les échantillons ont ensuite été analysés par thrombélastographe. Les données ont été étudiées par analyse de variance à trois voies pour mesures répétées sur une voie (dilution). Résultats Plus la substitution molaire est élevée, plus la coagulation sanguine est compromise et ce concernant tous les paramètres du TEG® (tous les p sont < à 0.05). La solution HES avec le rapport C2/C6 le plus bas a l'effet le moins prononcé sur le temps r (p<0.001), l'angle α (p=0.003) et l'Index de Coagulation CI (p<0.001) ; on n'a pas observé d'effet sur le temps k (p=0.513) et l'amplitude maximale (p=0.699) concernant ce paramètre. Conclusion L'analyse par thrombélastographe révèle qu'une molécule de HES avec une substitution molaire de 0.42 et un rapport C2/C6 de 2.7 a un effet minimal sur la coagulation sanguine humaine in vitro.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

In this paper, we propose several finite-sample specification tests for multivariate linear regressions (MLR) with applications to asset pricing models. We focus on departures from the assumption of i.i.d. errors assumption, at univariate and multivariate levels, with Gaussian and non-Gaussian (including Student t) errors. The univariate tests studied extend existing exact procedures by allowing for unspecified parameters in the error distributions (e.g., the degrees of freedom in the case of the Student t distribution). The multivariate tests are based on properly standardized multivariate residuals to ensure invariance to MLR coefficients and error covariances. We consider tests for serial correlation, tests for multivariate GARCH and sign-type tests against general dependencies and asymmetries. The procedures proposed provide exact versions of those applied in Shanken (1990) which consist in combining univariate specification tests. Specifically, we combine tests across equations using the MC test procedure to avoid Bonferroni-type bounds. Since non-Gaussian based tests are not pivotal, we apply the “maximized MC” (MMC) test method [Dufour (2002)], where the MC p-value for the tested hypothesis (which depends on nuisance parameters) is maximized (with respect to these nuisance parameters) to control the test’s significance level. The tests proposed are applied to an asset pricing model with observable risk-free rates, using monthly returns on New York Stock Exchange (NYSE) portfolios over five-year subperiods from 1926-1995. Our empirical results reveal the following. Whereas univariate exact tests indicate significant serial correlation, asymmetries and GARCH in some equations, such effects are much less prevalent once error cross-equation covariances are accounted for. In addition, significant departures from the i.i.d. hypothesis are less evident once we allow for non-Gaussian errors.