936 resultados para PROPORTIONAL HAZARD AND ACCELERATED FAILURE MODELS
Resumo:
Longitudinal surveys are increasingly used to collect event history data on person-specific processes such as transitions between labour market states. Surveybased event history data pose a number of challenges for statistical analysis. These challenges include survey errors due to sampling, non-response, attrition and measurement. This study deals with non-response, attrition and measurement errors in event history data and the bias caused by them in event history analysis. The study also discusses some choices faced by a researcher using longitudinal survey data for event history analysis and demonstrates their effects. These choices include, whether a design-based or a model-based approach is taken, which subset of data to use and, if a design-based approach is taken, which weights to use. The study takes advantage of the possibility to use combined longitudinal survey register data. The Finnish subset of European Community Household Panel (FI ECHP) survey for waves 1–5 were linked at person-level with longitudinal register data. Unemployment spells were used as study variables of interest. Lastly, a simulation study was conducted in order to assess the statistical properties of the Inverse Probability of Censoring Weighting (IPCW) method in a survey data context. The study shows how combined longitudinal survey register data can be used to analyse and compare the non-response and attrition processes, test the missingness mechanism type and estimate the size of bias due to non-response and attrition. In our empirical analysis, initial non-response turned out to be a more important source of bias than attrition. Reported unemployment spells were subject to seam effects, omissions, and, to a lesser extent, overreporting. The use of proxy interviews tended to cause spell omissions. An often-ignored phenomenon classification error in reported spell outcomes, was also found in the data. Neither the Missing At Random (MAR) assumption about non-response and attrition mechanisms, nor the classical assumptions about measurement errors, turned out to be valid. Both measurement errors in spell durations and spell outcomes were found to cause bias in estimates from event history models. Low measurement accuracy affected the estimates of baseline hazard most. The design-based estimates based on data from respondents to all waves of interest and weighted by the last wave weights displayed the largest bias. Using all the available data, including the spells by attriters until the time of attrition, helped to reduce attrition bias. Lastly, the simulation study showed that the IPCW correction to design weights reduces bias due to dependent censoring in design-based Kaplan-Meier and Cox proportional hazard model estimators. The study discusses implications of the results for survey organisations collecting event history data, researchers using surveys for event history analysis, and researchers who develop methods to correct for non-sampling biases in event history data.
Resumo:
The relevance of the relationship between cardiac disease and depressive symptoms is well established. White matter hyperintensity, a bright signal area in the brain on T2-weighted magnetic resonance imaging scans, has been separately associated with cardiovascular risk factors, cardiac disease and late-life depression. However, no study has directly investigated the association between heart failure, major depressive symptoms and the presence of hyperintensities. Using a visual assessment scale, we have investigated the frequency and severity of white matter hyperintensities identified by magnetic resonance imaging in eight patients with late-life depression and heart failure, ten patients with heart failure without depression, and fourteen healthy elderly volunteers. Since the frontal lobe has been the proposed site for the preferential location of white matter hyperintensities in patients with late-life depression, we focused our investigation specifically on this brain region. Although there were no significant group differences in white matter hyperintensities in the frontal region, a significant direct correlation emerged between the severity of frontal periventricular white matter hyperintensity and scores on the Hamilton scale for depression in the group with heart failure and depression (P = 0.016, controlled for the confounding influence of age). There were no significant findings in any other areas of the brain. This pattern of results adds support to a relationship between cardiovascular risk factors and depressive symptoms, and provides preliminary evidence that the presence of white matter hyperintensities specifically in frontal regions may contribute to the severity of depressive symptoms in cardiac disease.
Resumo:
After myocardial infarction (MI), activation of the immune system and inflammatory mechanisms, among others, can lead to ventricular remodeling and heart failure (HF). The interaction between these systemic alterations and corresponding changes in the heart has not been extensively examined in the setting of chronic ischemia. The main purpose of this study was to investigate alterations in cardiac gene and systemic cytokine profile in mice with post-ischemic HF. Plasma was tested for IgM and IgG anti-heart reactive repertoire and inflammatory cytokines. Heart samples were assayed for gene expression by analyzing hybridization to AECOM 32k mouse microarrays. Ischemic HF significantly increased the levels of total serum IgM (by 5.2-fold) and total IgG (by 3.6-fold) associated with a relatively high content of anti-heart specificity. A comparable increase was observed in the levels of circulating pro-inflammatory cytokines such as IL-1β (3.8X) and TNF-α (6.0X). IFN-γ was also increased by 3.1-fold in the MI group. However, IL-4 and IL-10 were not significantly different between the MI and sham-operated groups. Chemokines such as MCP-1 and IL-8 were 1.4- and 13-fold increased, respectively, in the plasma of infarcted mice. We identified 2079 well annotated unigenes that were significantly regulated by post-ischemic HF. Complement activation and immune response were among the most up-regulated processes. Interestingly, 21 of the 101 quantified unigenes involved in the inflammatory response were significantly up-regulated and none were down-regulated. These data indicate that post-ischemic heart remodeling is accompanied by immune-mediated mechanisms that act both systemically and locally.
Resumo:
Patients undergoing neurosurgery are predisposed to a variety of complications related to mechanical ventilation (MV). There is an increased incidence of extubation failure, pneumonia, and prolonged MV among such patients. The aim of the present study was to assess the influence of extubation failure and prolonged MV on the following variables: postoperative pulmonary complications (PPC), mortality, reoperation, tracheostomy, and duration of postoperative hospitalization following elective intra-cranial surgery. The study involved a prospective observational cohort of 317 patients submitted to elective intracranial surgery for tumors, aneurysms and arteriovenous malformation. Preoperative assessment was performed and patients were followed up for the determination of extubation failure and prolonged MV (>48 h) until discharge from the hospital or death. The occurrence of PPC, incidence of death, the need for reoperation and tracheostomy, and the length of hospitalization were assessed during the postoperative period. Twenty-six patients (8.2%) experienced extubation failure and 30 (9.5%) needed prolonged MV after surgery. Multivariate analysis showed that extubation failure was significant for the occurrence of death (OR = 8.05 [1.88; 34.36]), PPC (OR = 11.18 [2.27; 55.02]) and tracheostomy (OR = 7.8 [1.12; 55.07]). Prolonged MV was significant only for the occurrence of PPC (OR = 4.87 [1.3; 18.18]). Elective intracranial surgery patients who experienced extubation failure or required prolonged MV had a higher incidence of PPC, reoperation and tracheostomy and required a longer period of time in the ICU. Level of consciousness and extubation failure were associated with death and PPC. Patients who required prolonged MV had a higher incidence of extubation failure.
Resumo:
The SEARCH-RIO study prospectively investigated electrocardiogram (ECG)-derived variables in chronic Chagas disease (CCD) as predictors of cardiac death and new onset ventricular tachycardia (VT). Cardiac arrhythmia is a major cause of death in CCD, and electrical markers may play a significant role in risk stratification. One hundred clinically stable outpatients with CCD were enrolled in this study. They initially underwent a 12-lead resting ECG, signal-averaged ECG, and 24-h ambulatory ECG. Abnormal Q-waves, filtered QRS duration, intraventricular electrical transients (IVET), 24-h standard deviation of normal RR intervals (SDNN), and VT were assessed. Echocardiograms assessed left ventricular ejection fraction. Predictors of cardiac death and new onset VT were identified in a Cox proportional hazard model. During a mean follow-up of 95.3 months, 36 patients had adverse events: 22 new onset VT (mean±SD, 18.4±4‰/year) and 20 deaths (26.4±1.8‰/year). In multivariate analysis, only Q-wave (hazard ratio, HR=6.7; P<0.001), VT (HR=5.3; P<0.001), SDNN<100 ms (HR=4.0; P=0.006), and IVET+ (HR=3.0; P=0.04) were independent predictors of the composite endpoint of cardiac death and new onset VT. A prognostic score was developed by weighting points proportional to beta coefficients and summing-up: Q-wave=2; VT=2; SDNN<100 ms=1; IVET+=1. Receiver operating characteristic curve analysis optimized the cutoff value at >1. In 10,000 bootstraps, the C-statistic of this novel score was non-inferior to a previously validated (Rassi) score (0.89±0.03 and 0.80±0.05, respectively; test for non-inferiority: P<0.001). In CCD, surface ECG-derived variables are predictors of cardiac death and new onset VT.
Resumo:
The objective of this observational, multicenter study was to evaluate the association of body mass index (BMI) with disease severity and prognosis in patients with non-cystic fibrosis bronchiectasis. A total of 339 patients (197 females, 142 males) diagnosed with non-cystic fibrosis bronchiectasis by high-resolution computed tomography were classified into four groups: underweight (BMI<18.5 kg/m2), normal weight (18.5≤BMI<25.0 kg/m2), overweight (25.0≤BMI<30.0 kg/m2), and obese (BMI≥30.0 kg/m2). Clinical variables expressing disease severity were recorded, and acute exacerbations, hospitalizations, and survival rates were estimated during the follow-up period. The mean BMI was 21.90 kg/m2. The underweight group comprised 28.61% of all patients. BMI was negatively correlated with acute exacerbations, C-reactive protein, erythrocyte sedimentation rate, radiographic extent of bronchiectasis, and chronic colonization by P. aeruginosa and positively correlated with pulmonary function indices. BMI was a significant predictor of hospitalization risk independent of relevant covariates. The 1-, 2-, 3-, and 4-year cumulative survival rates were 94%, 86%, 81%, and 73%, respectively. Survival rates decreased with decreasing BMI (χ2=35.16, P<0.001). The arterial carbon dioxide partial pressure, inspiratory capacity, age, BMI, and predicted percentage of forced expiratory volume in 1 s independently predicted survival in the Cox proportional hazard model. In conclusion, an underweight status was highly prevalent among patients with non-cystic fibrosis bronchiectasis. Patients with a lower BMI were prone to developing more acute exacerbations, worse pulmonary function, amplified systemic inflammation, and chronic colonization by P. aeruginosa. BMI was a major determinant of hospitalization and death risks. BMI should be considered in the routine assessment of patients with non-cystic fibrosis bronchiectasis.
Resumo:
Italy is currently experiencing profound political change. One aspect of this change involves the decline in electoral support for the Italian Christian Democratic Party (DC) and the Italian Communist Party (PCI), now the Democratic Party of the Left (PDS). Signs of the electoral decline of both parties began to appear in the late 1970s and early 1980s and accelerated in the late 1980s and early 1990s. The pr imar y purpos e of th is thes is is to expla i n the electoral decline of the DC and PCI/PDS in the last decade. The central question being addressed in this thesis is the following: What factors contributed to the decline in electoral support for the DC and PCI? In addition, the thesis attempts to better comprehend the change in magni tude and direction of the Italian party system. The thesis examines the central question within an analytical framework that consists of models explaining electoral change in advanced industrial democracies and in Italy. A review of the literature on electoral change in Italy reveals three basic models: structural (socioeconomic and demographic factors), subcultural (the decline of the Catholic and Communist subcultures), and pol i tical (factors such as party strategy, and the crisis and collapse of communism in iv Eastern Europe and the former soviet Union and the end to the Cold War). Significant structural changes have occurred in Italy, but they do not invariably hurt or benefit either party. The Catholic and Communist subcultures have declined in size and strength, but only gradually. More importantly, the study discovers that the decline of communism and party strategy adversely affected the electoral performances of the DC and PC!. The basic conclusion is that political factors primarily and directly contributed to the decline in electoral support for both parties, while societal factors (structural and subcultural changes) played a secondary and indirect role. While societal factors do not contribute directly to the decline in electoral support for both parties, they do provide the context within which both parties operated. In addition, the Italian party system is becoming more fragmented and traditional political parties are losing electoral support to new political movements, such as the Lega Nord (LN-Northern League) and the Rete (Network). The growing importance of the North-South and centre-periphery cleavages suggests that the Italian party system, which is traditionally based on religious and ideological cleavages, may be changing.
Resumo:
A complex network is an abstract representation of an intricate system of interrelated elements where the patterns of connection hold significant meaning. One particular complex network is a social network whereby the vertices represent people and edges denote their daily interactions. Understanding social network dynamics can be vital to the mitigation of disease spread as these networks model the interactions, and thus avenues of spread, between individuals. To better understand complex networks, algorithms which generate graphs exhibiting observed properties of real-world networks, known as graph models, are often constructed. While various efforts to aid with the construction of graph models have been proposed using statistical and probabilistic methods, genetic programming (GP) has only recently been considered. However, determining that a graph model of a complex network accurately describes the target network(s) is not a trivial task as the graph models are often stochastic in nature and the notion of similarity is dependent upon the expected behavior of the network. This thesis examines a number of well-known network properties to determine which measures best allowed networks generated by different graph models, and thus the models themselves, to be distinguished. A proposed meta-analysis procedure was used to demonstrate how these network measures interact when used together as classifiers to determine network, and thus model, (dis)similarity. The analytical results form the basis of the fitness evaluation for a GP system used to automatically construct graph models for complex networks. The GP-based automatic inference system was used to reproduce existing, well-known graph models as well as a real-world network. Results indicated that the automatically inferred models exemplified functional similarity when compared to their respective target networks. This approach also showed promise when used to infer a model for a mammalian brain network.
Resumo:
We study the problem of testing the error distribution in a multivariate linear regression (MLR) model. The tests are functions of appropriately standardized multivariate least squares residuals whose distribution is invariant to the unknown cross-equation error covariance matrix. Empirical multivariate skewness and kurtosis criteria are then compared to simulation-based estimate of their expected value under the hypothesized distribution. Special cases considered include testing multivariate normal, Student t; normal mixtures and stable error models. In the Gaussian case, finite-sample versions of the standard multivariate skewness and kurtosis tests are derived. To do this, we exploit simple, double and multi-stage Monte Carlo test methods. For non-Gaussian distribution families involving nuisance parameters, confidence sets are derived for the the nuisance parameters and the error distribution. The procedures considered are evaluated in a small simulation experi-ment. Finally, the tests are applied to an asset pricing model with observable risk-free rates, using monthly returns on New York Stock Exchange (NYSE) portfolios over five-year subperiods from 1926-1995.
Resumo:
Statistical tests in vector autoregressive (VAR) models are typically based on large-sample approximations, involving the use of asymptotic distributions or bootstrap techniques. After documenting that such methods can be very misleading even with fairly large samples, especially when the number of lags or the number of equations is not small, we propose a general simulation-based technique that allows one to control completely the level of tests in parametric VAR models. In particular, we show that maximized Monte Carlo tests [Dufour (2002)] can provide provably exact tests for such models, whether they are stationary or integrated. Applications to order selection and causality testing are considered as special cases. The technique developed is applied to quarterly and monthly VAR models of the U.S. economy, comprising income, money, interest rates and prices, over the period 1965-1996.
Resumo:
Le problème de localisation-routage avec capacités (PLRC) apparaît comme un problème clé dans la conception de réseaux de distribution de marchandises. Il généralisele problème de localisation avec capacités (PLC) ainsi que le problème de tournées de véhicules à multiples dépôts (PTVMD), le premier en ajoutant des décisions liées au routage et le deuxième en ajoutant des décisions liées à la localisation des dépôts. Dans cette thèse on dévelope des outils pour résoudre le PLRC à l’aide de la programmation mathématique. Dans le chapitre 3, on introduit trois nouveaux modèles pour le PLRC basés sur des flots de véhicules et des flots de commodités, et on montre comment ceux-ci dominent, en termes de la qualité de la borne inférieure, la formulation originale à deux indices [19]. Des nouvelles inégalités valides ont été dévelopées et ajoutées aux modèles, de même que des inégalités connues. De nouveaux algorithmes de séparation ont aussi été dévelopés qui dans la plupart de cas généralisent ceux trouvés dans la litterature. Les résultats numériques montrent que ces modèles de flot sont en fait utiles pour résoudre des instances de petite à moyenne taille. Dans le chapitre 4, on présente une nouvelle méthode de génération de colonnes basée sur une formulation de partition d’ensemble. Le sous-problème consiste en un problème de plus court chemin avec capacités (PCCC). En particulier, on utilise une relaxation de ce problème dans laquelle il est possible de produire des routes avec des cycles de longueur trois ou plus. Ceci est complété par des nouvelles coupes qui permettent de réduire encore davantage le saut d’intégralité en même temps que de défavoriser l’apparition de cycles dans les routes. Ces résultats suggèrent que cette méthode fournit la meilleure méthode exacte pour le PLRC. Dans le chapitre 5, on introduit une nouvelle méthode heuristique pour le PLRC. Premièrement, on démarre une méthode randomisée de type GRASP pour trouver un premier ensemble de solutions de bonne qualité. Les solutions de cet ensemble sont alors combinées de façon à les améliorer. Finalement, on démarre une méthode de type détruir et réparer basée sur la résolution d’un nouveau modèle de localisation et réaffectation qui généralise le problème de réaffectaction [48].
Resumo:
Le présent mémoire s’inscrit dans un projet, financé par le CRSH, visant l’étude des conditions de vie dans l’enfance et la survie aux grands âges L’augmentation de la longévité et de la mortalité observée dans les pays industrialisés depuis plus d’un siècle ont mené à l’émergence d’un courant de recherche visant à identifier les causes de ces progrès. Il a été soulevé que les conditions de vie dans l’enfance pourraient y jouer un rôle. L’objectif de ce mémoire est donc de mettre en lumière les déterminants qui sont en cause en étudiant la mortalité au-delà de 40 ans d’une population urbaine canadienne-française en phase d’industrialisation, soit, celle de la ville de Québec au début du 20ème siècle. Plus spécifiquement, une analyse descriptive de la population étudiée sera effectuée et suivra une analyse statistique à l’aide de modèles de risques proportionnels de Cox qui prendront en compte différentes facettes des conditions de vie. Au coeur de ce mémoire a été l’élaboration d’une base de données se basant sur le Canadian Families Project et créée à partir du recensement canadien de 1901. Cette dernière nous a permis de dresser un portrait des conditions de vie dans l’enfance, telles qu’elles étaient au tournant du 20ème siècle, de la population étudiée. Nous avons complété cette base de données en recueillant des informations sur les mariages à l’aide des fichiers de du projet BALSAC ainsi que les âges au décès des individus de l’échantillon en consultant les fiches de l’État civil. Nous avons pu mettre en lumière que les individus ayant passé leur enfance dans un ménage de type complexe affichent une mortalité moins élevée (de près de 35%) que pour les structures familiales simples. De plus, les individus qui ont grandi dans un ménage dont le chef était bilingue ou occupait un emploi qualifié ont des risques de mortalité inférieurs de près du tiers par rapport aux autres. Nous avons aussi trouvé que les résidents de la Basse-Ville courraient un risque de mortalité jusqu’à 50% plus élevé que celui de ceux provenant d’autres districts de la ville.
Resumo:
Ma thèse est composée de trois chapitres reliés à l'estimation des modèles espace-état et volatilité stochastique. Dans le première article, nous développons une procédure de lissage de l'état, avec efficacité computationnelle, dans un modèle espace-état linéaire et gaussien. Nous montrons comment exploiter la structure particulière des modèles espace-état pour tirer les états latents efficacement. Nous analysons l'efficacité computationnelle des méthodes basées sur le filtre de Kalman, l'algorithme facteur de Cholesky et notre nouvelle méthode utilisant le compte d'opérations et d'expériences de calcul. Nous montrons que pour de nombreux cas importants, notre méthode est plus efficace. Les gains sont particulièrement grands pour les cas où la dimension des variables observées est grande ou dans les cas où il faut faire des tirages répétés des états pour les mêmes valeurs de paramètres. Comme application, on considère un modèle multivarié de Poisson avec le temps des intensités variables, lequel est utilisé pour analyser le compte de données des transactions sur les marchés financières. Dans le deuxième chapitre, nous proposons une nouvelle technique pour analyser des modèles multivariés à volatilité stochastique. La méthode proposée est basée sur le tirage efficace de la volatilité de son densité conditionnelle sachant les paramètres et les données. Notre méthodologie s'applique aux modèles avec plusieurs types de dépendance dans la coupe transversale. Nous pouvons modeler des matrices de corrélation conditionnelles variant dans le temps en incorporant des facteurs dans l'équation de rendements, où les facteurs sont des processus de volatilité stochastique indépendants. Nous pouvons incorporer des copules pour permettre la dépendance conditionnelle des rendements sachant la volatilité, permettant avoir différent lois marginaux de Student avec des degrés de liberté spécifiques pour capturer l'hétérogénéité des rendements. On tire la volatilité comme un bloc dans la dimension du temps et un à la fois dans la dimension de la coupe transversale. Nous appliquons la méthode introduite par McCausland (2012) pour obtenir une bonne approximation de la distribution conditionnelle à posteriori de la volatilité d'un rendement sachant les volatilités d'autres rendements, les paramètres et les corrélations dynamiques. Le modèle est évalué en utilisant des données réelles pour dix taux de change. Nous rapportons des résultats pour des modèles univariés de volatilité stochastique et deux modèles multivariés. Dans le troisième chapitre, nous évaluons l'information contribuée par des variations de volatilite réalisée à l'évaluation et prévision de la volatilité quand des prix sont mesurés avec et sans erreur. Nous utilisons de modèles de volatilité stochastique. Nous considérons le point de vue d'un investisseur pour qui la volatilité est une variable latent inconnu et la volatilité réalisée est une quantité d'échantillon qui contient des informations sur lui. Nous employons des méthodes bayésiennes de Monte Carlo par chaîne de Markov pour estimer les modèles, qui permettent la formulation, non seulement des densités a posteriori de la volatilité, mais aussi les densités prédictives de la volatilité future. Nous comparons les prévisions de volatilité et les taux de succès des prévisions qui emploient et n'emploient pas l'information contenue dans la volatilité réalisée. Cette approche se distingue de celles existantes dans la littérature empirique en ce sens que ces dernières se limitent le plus souvent à documenter la capacité de la volatilité réalisée à se prévoir à elle-même. Nous présentons des applications empiriques en utilisant les rendements journaliers des indices et de taux de change. Les différents modèles concurrents sont appliqués à la seconde moitié de 2008, une période marquante dans la récente crise financière.
Resumo:
L'objectif principal de ce travail est d’étudier en profondeur certaines techniques biostatistiques avancées en recherche évaluative en chirurgie cardiaque adulte. Les études ont été conçues pour intégrer les concepts d'analyse de survie, analyse de régression avec “propensity score”, et analyse de coûts. Le premier manuscrit évalue la survie après la réparation chirurgicale de la dissection aigüe de l’aorte ascendante. Les analyses statistiques utilisées comprennent : analyses de survie avec régression paramétrique des phases de risque et d'autres méthodes paramétriques (exponentielle, Weibull), semi-paramétriques (Cox) ou non-paramétriques (Kaplan-Meier) ; survie comparée à une cohorte appariée pour l’âge, le sexe et la race utilisant des tables de statistiques de survie gouvernementales ; modèles de régression avec “bootstrapping” et “multinomial logit model”. L'étude a démontrée que la survie s'est améliorée sur 25 ans en lien avec des changements dans les techniques chirurgicales et d’imagerie diagnostique. Le second manuscrit est axé sur les résultats des pontages coronariens isolés chez des patients ayant des antécédents d'intervention coronarienne percutanée. Les analyses statistiques utilisées comprennent : modèles de régression avec “propensity score” ; algorithme complexe d'appariement (1:3) ; analyses statistiques appropriées pour les groupes appariés (différences standardisées, “generalized estimating equations”, modèle de Cox stratifié). L'étude a démontrée que l’intervention coronarienne percutanée subie 14 jours ou plus avant la chirurgie de pontages coronariens n'est pas associée à des résultats négatifs à court ou long terme. Le troisième manuscrit évalue les conséquences financières et les changements démographiques survenant pour un centre hospitalier universitaire suite à la mise en place d'un programme de chirurgie cardiaque satellite. Les analyses statistiques utilisées comprennent : modèles de régression multivariée “two-way” ANOVA (logistique, linéaire ou ordinale) ; “propensity score” ; analyses de coûts avec modèles paramétriques Log-Normal. Des modèles d’analyse de « survie » ont également été explorés, utilisant les «coûts» au lieu du « temps » comme variable dépendante, et ont menés à des conclusions similaires. L'étude a démontrée que, après la mise en place du programme satellite, moins de patients de faible complexité étaient référés de la région du programme satellite au centre hospitalier universitaire, avec une augmentation de la charge de travail infirmier et des coûts.