915 resultados para Logistic regression model
Resumo:
BACKGROUND: Gemcitabine plus cisplatin (GC) has been adopted as a neoadjuvant regimen for muscle-invasive bladder cancer despite the lack of Level I evidence in this setting. METHODS: Data were collected using an electronic data-capture platform from 28 international centers. Eligible patients had clinical T-classification 2 (cT2) through cT4aN0M0 urothelial cancer of the bladder and received neoadjuvant GC or methotrexate, vinblastine, doxorubicin, plus cisplatin (MVAC) before undergoing cystectomy. Logistic regression was used to compute propensity scores as the predicted probabilities of patients being assigned to MVAC versus GC given their baseline characteristics. These propensity scores were then included in a new logistic regression model to estimate an adjusted odds ratio comparing the odds of attaining a pathologic complete response (pCR) between patients who received MVAC and those who received GC. RESULTS: In total, 212 patients (146 patients in the GC cohort and 66 patients in the MVAC cohort) met criteria for inclusion in the analysis. The majority of patients in the MVAC cohort (77%) received dose-dense MVAC. The median age of patients was 63 years, they were predominantly men (74%), and they received a median of 3 cycles of neoadjuvant chemotherapy. The pCR rate was 29% in the MVAC cohort and 31% in the GC cohort. There was no significant difference in the pCR rate when adjusted for propensity scores between the 2 regimens (odds ratio, 0.91; 95% confidence interval, 0.48-1.72; P = .77). In an exploratory analysis evaluating survival, the hazard ratio comparing hazard rates for MVAC versus GC adjusted for propensity scores was not statistically significant (hazard ratio, 0.78; 95% confidence interval, 0.40-1.54; P = .48). CONCLUSIONS: Patients who received neoadjuvant GC and MVAC achieved comparable pCR rates in the current analysis, providing evidence to support what has become routine practice. Cancer 2015;121:2586-2593. © 2015 American Cancer Society.
Resumo:
Objective: to assess predictors of intra-abdominal injuries in blunt trauma patients admitted without abdominal pain or abnormalities on the abdomen physical examination. Methods: We conducted a retrospective analysis of trauma registry data, including adult blunt trauma patients admitted from 2008 to 2010 who sustained no abdominal pain or abnormalities on physical examination of the abdomen at admission and were submitted to computed tomography of the abdomen and/or exploratory laparotomy. Patients were assigned into: Group 1 (with intra-abdominal injuries) or Group 2 (without intra-abdominal injuries). Variables were compared between groups to identify those significantly associated with the presence of intra-abdominal injuries, adopting p<0.05 as significant. Subsequently, the variables with p<0.20 on bivariate analysis were selected to create a logistic regression model using the forward stepwise method. Results: A total of 268 cases met the inclusion criteria. Patients in Group I were characterized as having significantly (p<0.05) lower mean AIS score for the head segment (1.0±1.4 vs. 1.8±1.9), as well as higher mean AIS thorax score (1.6±1.7 vs. 0.9±1.5) and ISS (25.7±14.5 vs. 17,1±13,1). The rate of abdominal injuries was significantly higher in run-over pedestrians (37.3%) and in motorcyclists (36.0%) (p<0.001). The resultant logistic regression model provided 73.5% accuracy for identifying abdominal injuries. The variables included were: motorcyclist accident as trauma mechanism (p<0.001 - OR 5.51; 95%CI 2.40-12.64), presence of rib fractures (p<0.003 - OR 3.00; 95%CI 1.47-6.14), run-over pedestrian as trauma mechanism (p=0.008 - OR 2.85; 95%CI 1.13-6.22) and abnormal neurological physical exam at admission (p=0.015 - OR 0.44; 95%CI 0.22-0.85). Conclusion Intra-abdominal injuries were predominantly associated with trauma mechanism and presence of chest injuries.
Resumo:
The aim of this study was evaluate the risk factors for Mycobacterium avium subsp. paratuberculosis (Map) seroprevalence in sheep in the North of Portugal. The effects on seroprevalence of several variables such as individual characteristics, management practices, farm characteristics, animal health, and available veterinary services were evaluated. This information was then used in a multivariable logistic regression model in order to identify risk factors for Map seropositivity. Univariable analysis was used to screen the variables used in the logistic regression model. Variables that showed p values of <0.15 were retained for the multivariable analysis. Fifteen variables were associated with paratuberculosis in univariable analysis. The multivariable logistic regression model identified a number of variables as risk factors for seropositivity like sheep pure local and/or a cross of a local breed (OR=2.02), herd size with 31-60 head (OR=2.14), culling during the Spring-Summer season (OR=1.69) and the use of an anti-parasitic treatment such as Ivermectin as the only anti-parasitic medication (OR=5.60). Potential risk factors identified in this study support current recommendations for the control of paratuberculosis.
Resumo:
Few data are available on the prevalence and risk factors of Chlamydophila abortus infection in goats in Brazil. A cross-sectional study was carried out to determine the flock-level prevalence of C. abortus infection in goats from the semiarid region of the Paraíba State, Northeast region of Brazil, as well as to identify risk factors associated with the infection. Flocks were randomly selected and a pre-established number of female goats > 12 mo old were sampled in each of these flocks. A total of 975 serum samples from 110 flocks were collected, and structured questionnaire focusing on risk factors for C. abortus infection was given to each farmer at the time of blood collection. For the serological diagnosis the complement fixation test (CFT) using C. abortus S26/3 strain as antigen was performed. The flock-level factors for C. abortus prevalence were tested using multivariate logistic regression model. Fifty-five flocks out of 110 presented at least one seropositive animal with an overall prevalence of 50.0% (95%; CI: 40.3%, 59.7%). Ninety-one out of 975 dairy goats examined were seropositive with titers >32, resulting in a frequency of 9.3%. Lend buck for breeding (odds ratio = 2.35; 95% CI: 1.04-5.33) and history of abortions (odds ratio = 3.06; 95% CI: 1.37-6.80) were associated with increased flock prevalence.
Resumo:
This master’s thesis studies the probability of bankruptcy of Finnish limited liability companies as a part of credit risk assessment. The main idea of this thesis is to build and test bankruptcy prediction models for Finnish limited liability companies that can be utilized in credit decision making. The data used in this thesis consists of historical financial statements from 2112 Finnish limited liability companies, half of which have filed for bankruptcy. A total of four models are developed, two with logistic regression and two with multivariate discriminant analysis (MDA). The time horizon of the models varies from 1 to 2 years prior to the bankruptcy, and 14 different financial variables are used in the model formation. The results show that the prediction accuracy of the models ranges between 81.7% and 88.9%, and the best prediction accuracy is achieved with the one year prior the bankruptcy logistic regression model. However the difference between the best logistic model and the best MDA model is minimal. Overall based on the results of this thesis it can be concluded that predicting bankruptcy is possible to some extent, but naturally the results are not perfect.
Resumo:
The objective of the present study was to evaluate the risk factors associated with the presence of coronary artery calcification (CAC) in patients with type 1 diabetes (T1D). A cross-sectional study was conducted on 100 consecutive T1D patients without coronary artery disease, with at least 5 years of diabetes and absence of end-stage renal disease. Mean age was 38 ± 10 years and 57% were males. CAC score was measured by multidetector computed tomography (Siemens Sensation 64 Cardiac). The insulin resistance index was measured using the estimated glucose disposal rate (eGDR). The eGDR was lower among CAC-positive patients than among CAC-negative patients, suggesting an increased insulin resistance. In a logistic regression model adjusted for age (at 10-year intervals), eGDR, diabetic nephropathy and gender, CAC was associated with age [OR = 2.73 (95%CI = 1.53-4.86), P = 0.001] and with eGDR [OR = 0.08 (95%CI = 0.02-0.21), P = 0.004]. In T1D subjects, insulin resistance is one of the most important risk factors for subclinical atherosclerosis.
Resumo:
The etiology of respiratory distress syndrome (RDS) is multifactorial and multigenic. Studies have suggested that polymorphisms and mutations in the surfactant protein B (SP-B) gene are associated with the pathogenesis of RDS. The objectives of this study were to determine and compare the frequencies of SP-B gene polymorphisms in preterm babies with and without RDS. We studied 151 neonates: 79 preterm babies without RDS and 72 preterm newborns with RDS. The following four SP-B gene polymorphisms were analyzed: A/C at -18, C/T at 1580, A/G at 9306, and G/C at nucleotide 8714. The polymorphisms were detected by PCR amplification of genomic DNA and genotyping. The genotypes were determined using PCR-based converted restriction fragment length polymorphisms. The control group consisted of 42 (53%) girls and 37 (47%) boys. Weight ranged from 1170 to 3260 g and mean gestational age (GA) was 33.9 weeks (range: 29 to 35 weeks and 6 days). The RDS group consisted of 31 (43%) girls and 41 (57%) boys. Weight ranged from 614 to 2410 g and mean GA was 32 weeks (range: 26 to 35 weeks). The logistic regression model showed that GA was the variable that most contributed to the occurrence of RDS. The AG genotype of the A/G polymorphism at position 9306 of the SP-B gene was a protective factor in this population (OR = 0.1681; 95%CI = 0.0426-0.6629). We did not detect differences in the frequencies of the other polymorphisms between the two groups of newborns.
Resumo:
Some thrombophilias and severe preeclampsia may increase the risk for preterm deliveries and fetal death due to placental insufficiency. Our objective was to evaluate clinical and laboratory data as predictors of preeclampsia in a population of mothers with 3rd trimester fetal losses or preterm deliveries. In a longitudinal retrospective study, 54 consecutive women (age range: 16 to 39 years) with normotensive pregnancies were compared to 79 consecutive women with preeclampsia (age range: 16 to 43 years). Weight accrual rate (WAR) was arbitrarily defined as weight gain from age 18 years to the beginning of pregnancy divided by elapsed years. Independent predictors of preeclampsia were past history of oligomenorrhea, WAR >0.8 kg/years, pre-pregnancy or 1st trimester triglyceridemia >150 mg/dL, and elevated acanthosis nigricans in the neck. In a multivariate logistic regression model, two or more predictors conferred an odds ratio of 15 (95%CI [5.9-37]; P < 0.001) to develop preeclampsia (85% specificity, 73% sensitivity, c-statistic of 81 ± 4%; P < 0.0001). Clinical markers related to insulin resistance and sedentary lifestyles are strong independent predictors of preeclampsia in mothers with 3rd trimester fetal losses or preterm deliveries due to placental insufficiency. Women at risk for preeclampsia in this particular population might benefit from measures focused on overcoming insulin resistance.
Resumo:
The mortality rate of older patients with intertrochanteric fractures has been increasing with the aging of populations in China. The purpose of this study was: 1) to develop an artificial neural network (ANN) using clinical information to predict the 1-year mortality of elderly patients with intertrochanteric fractures, and 2) to compare the ANN's predictive ability with that of logistic regression models. The ANN model was tested against actual outcomes of an intertrochanteric femoral fracture database in China. The ANN model was generated with eight clinical inputs and a single output. ANN's performance was compared with a logistic regression model created with the same inputs in terms of accuracy, sensitivity, specificity, and discriminability. The study population was composed of 2150 patients (679 males and 1471 females): 1432 in the training group and 718 new patients in the testing group. The ANN model that had eight neurons in the hidden layer had the highest accuracies among the four ANN models: 92.46 and 85.79% in both training and testing datasets, respectively. The areas under the receiver operating characteristic curves of the automatically selected ANN model for both datasets were 0.901 (95%CI=0.814-0.988) and 0.869 (95%CI=0.748-0.990), higher than the 0.745 (95%CI=0.612-0.879) and 0.728 (95%CI=0.595-0.862) of the logistic regression model. The ANN model can be used for predicting 1-year mortality in elderly patients with intertrochanteric fractures. It outperformed a logistic regression on multiple performance measures when given the same variables.
Resumo:
Clostridium difficile is the most common cause of hospital-acquired diarrhea in patients treated with antibiotics, chemotherapeutic agents, and other drugs that alter the normal equilibrium of the intestinal flora. A better understanding of the risk factors for C. difficile-associated disease (CDAD) could be used to reduce the incidence of CDAD and the costs associated with its treatment. The aim of this study was to identify the risk factors for CDAD in a cohort of Chinese patients in a Beijing hospital. Medical charts of a total of 130 inpatients (62 males and 68 females) with hospital-acquired diarrhea (45 with CDAD; 85 without CDAD) were retrospectively reviewed. C. difficile toxins A and B were detected in fecal samples using enzyme-linked fluorescence assays. The drugs used by patients with and without CDAD before the onset of diarrhea were compared. Factors that differed significantly between the two groups by univariate analysis were analyzed by multivariate analysis using a logistic regression model. Multivariate analysis showed that cephalosporin treatment was associated with a significantly higher risk of CDAD in hospitalized patients, while treatment with glycopeptides was significantly associated with a reduction in CDAD (P<0.001 for cephalosporin; P=0.013 for glycopeptides). Our data confirmed previous findings that empirical treatment with cephalosporins is positively associated with CDAD compared to individuals using other CDAD-related drugs. Additionally, we showed that treatment with glycopeptides was negatively associated with CDAD, compared to individuals using other CDAD-related drugs.
Resumo:
Les transfusions de culots érythrocytaires (CE) sont un traitement fréquent en soins intensifs pédiatriques. Des études chez l’adulte suggèrent qu’une durée prolongée d’entreposage des CE est associée à une mauvaise évolution clinique. Aucune étude prospective n’a été conduite en pédiatrie. Notre objectif était d’évaluer l’effet clinique de la durée d’entreposage des CE chez des patients de soins intensifs pédiatriques. Nous avons donc conduit une étude observationnelle prospective dans 30 centres de soins intensifs pédiatriques en Amérique du Nord, chez tous les patients consécutifs de moins de 18 ans, séjournant aux soins intensifs pendant plus de 48 heures. Le critère de jugement primaire était l’incidence de cas de syndrome de défaillance multiviscérale après transfusion. Les critères de jugement secondaire étaient la mortalité à 28 jours et la durée d’hospitalisation aux soins intensifs. En utilisant un modèle de régression logistique, les risques relatifs furent ajustés pour le sexe, l’âge, la sévérité de la maladie à l’admission, le nombre total de transfusions et la dose totale de transfusion. L’étude a montré que les patients recevant des CE entreposés pendant 14 jours ou plus avaient un risque relatif ajusté de 1.87 (IC 95% 1.04 :3.27, p=0.03) de contracter ou de détériorer un syndrome de défaillance multiviscérale après transfusion. Ces mêmes patients avaient une durée d’hospitalisation aux soins intensifs prolongée (+3.7 jours, p<0.001), mais pas de risque augmenté de mortalité. En conclusion, chez les patients de soins intensifs pédiatriques, la transfusion de CE entreposés 14 jours ou plus est associée avec une augmentation de l’incidence de syndrome de défaillance multiviscérale et une durée d’hospitalisation prolongée aux soins intensifs.
Resumo:
Contexte: la survenue d’IRA chez les patients ayant subi un traumatisme est une problématique qui a été peu étudiée jusqu’à ce jour. La présence de cette atteinte rénale a été démontrée comme étant associée à un risque accru de morbidités et de mortalité chez les sujets atteints. Objectifs: identifier les facteurs prédictifs d’insuffisance rénale ou plus récemment appelée atteinte rénale dans cette population particulière et tenter de trouver des facteurs qui peuvent être mesurés dans les premières heures de la prise en charge du patient. Aussi, nous avons cherché à savoir si l’injection de produit de contraste est associée à un risque accru d’insuffisance rénale aiguë dans cette population. Méthodes et résultats: la recherche a eu lieu à l’Hôpital du Sacré-Coeur de Montréal, un centre de traumatologie tertiaire en milieu urbain. Nous avons utilisé le registre des patients hospitalisés en traumatologie dans notre centre hospitalier entre 2002 et mars 2007 de même que les banques de données de laboratoire et de radiologie pour obtenir les données sur la créatinine et les examens avec produits de contraste. Finalement, une revue de dossiers structurée fut conduite pour recueillir le reste de l’information requise. L’incidence d’IRA dans la population étudiée est estimée à environ 5 %. Une analyse cas témoins fut conduite pour identifier les facteurs prédictifs d’IRA. Quarante-neuf cas d’IRA diagnostiqués par le médecin traitant et 101 témoins sélectionnés au hasard ont été analysés. Les facteurs prédictifs suivants ont été identifiés à l’analyse univariée : la première valeur de créatinine obtenue (p<0,001), l’instabilité hémodynamique (p<0,001), les antécédents d’insuffisance rénale chronique tels que notés dans le dossier par le médecin traitant (p=0,009), une maladie cardiaque (p=0,007), une chirurgie dans les 48 premières heures suivant le traumatisme (p=0,053), le niveau de gravité du traumatisme (Injury Severity Score) (p=0,046) et l’injection de produit de contraste au cours des 48 heures suivant le trauma (p=0,077). Parmi ces facteurs, deux ont été identifiés comme prédicteurs indépendants d’IRA à l’analyse multivariée. Une des valeurs était la première valeur de créatinine obtenue RC = 6,17 (p<0,001, IC95 % 2,81 – 13,53) pour chaque augmentation de 0.5mg/dL de créatinine. L’autre facteur était la présence d’instabilité hémodynamique RC 11,61 (p<0,001, IC95 % 3,71 – 36,29). Conclusion: des informations obtenues tôt dans la prise en charge du patient permettent de prédire le risque d’IRA chez ces patients. L’administration de contraste (intraveineuse ou intra-artérielle) ne s’est pas avérée un facteur indépendant de prédiction d’insuffisance rénale aiguë dans cette population dans le modèle multivarié.
Prédiction de l'attrition en date de renouvellement en assurance automobile avec processus gaussiens
Resumo:
Le domaine de l’assurance automobile fonctionne par cycles présentant des phases de profitabilité et d’autres de non-profitabilité. Dans les phases de non-profitabilité, les compagnies d’assurance ont généralement le réflexe d’augmenter le coût des primes afin de tenter de réduire les pertes. Par contre, de très grandes augmentations peuvent avoir pour effet de massivement faire fuir la clientèle vers les compétiteurs. Un trop haut taux d’attrition pourrait avoir un effet négatif sur la profitabilité à long terme de la compagnie. Une bonne gestion des augmentations de taux se révèle donc primordiale pour une compagnie d’assurance. Ce mémoire a pour but de construire un outil de simulation de l’allure du porte- feuille d’assurance détenu par un assureur en fonction du changement de taux proposé à chacun des assurés. Une procédure utilisant des régressions à l’aide de processus gaus- siens univariés est développée. Cette procédure offre une performance supérieure à la régression logistique, le modèle généralement utilisé pour effectuer ce genre de tâche.
Resumo:
La pollution microbienne des eaux récréatives peut engendrer un risque pour la santé des populations exposées. La contamination fécale de ces eaux représente une composante importante de ce risque, notamment par la présence possible d’agents pathogènes et par l’exposition à des micro-organismes résistants aux antimicrobiens. Les sources de pollution fécale sont multiples et incluent entre autres les activités agricoles et les productions animales. Ce projet visait donc à mieux comprendre les facteurs influençant la qualité microbiologique des eaux récréatives du Québec méridional, en ciblant le rôle possible des activités agricoles, ainsi qu`à proposer et évaluer de nouvelles sources de données pouvant contribuer à l’identification de ces facteurs. Dans un premier temps, une évaluation de la présence d’Escherichia coli résistants aux antimicrobiens dans les eaux récréatives à l’étude a été effectuée. À la lumière des résultats de cette première étude, ces eaux représenteraient une source de micro-organismes résistants aux antimicrobiens pour les personnes pratiquant des activités aquatiques, mais l’impact en santé publique d’une telle exposition demeure à déterminer. Les déterminants agroenvironnementaux associés à la présence de micro-organismes résistants aux antimicrobiens ont par la suite été explorés. Les résultats de ce chapitre suggèrent que les activités agricoles, et plus spécifiquement l’épandage de fumier liquide, seraient reliées à la contamination des eaux récréatives par des bactéries résistantes aux antimicrobiens. Le chapitre suivant visait à identifier des déterminants agroenvironnementaux temps-indépendants d’importance associés à la contamination fécale des eaux à l’étude. Différentes variables, regroupées en trois classes (activités agricoles, humaines et caractéristiques géohydrologiques), ont été explorées à travers un modèle de régression logistique multivarié. Il en est ressorti que les eaux récréatives ayant des sites de productions de ruminants à proximité, et en particulier à l’intérieur d’un rayon de 2 km, possédaient un risque plus élevé de contamination fécale. Une association positive a également été notée entre le niveau de contamination fécale et le fait que les plages soient situées à l’intérieur d’une zone urbaine. Cette composante nous permet donc de conclure qu’en regard à la santé publique, les eaux récréatives pourraient être contaminées par des sources de pollution fécale tant animales qu’humaines, et que celles-ci pourraient représenter un risque pour la santé des utilisateurs. Pour terminer, un modèle de régression logistique construit à l’aide de données issues de la télédétection et mettant en association un groupe de déterminants agroenvironnementaux et la contamination fécale des eaux récréatives a été mis au point. Ce chapitre visait à évaluer l’utilité de telles données dans l’identification de ces déterminants, de même qu`à discuter des avantages et contraintes associées à leur emploi dans le contexte de la surveillance de la qualité microbiologique des eaux récréatives. À travers cette étude, des associations positives ont été mises en évidence entre le niveau de contamination fécale des eaux et la superficie des terres agricoles adjacentes, de même qu’avec la présence de surfaces imperméables. Les données issues des images d’observation de la Terre pourraient donc constituer une valeur ajoutée pour les programmes de suivi de la qualité microbiologique de ces eaux en permettant une surveillance des déterminants y étant associés.
Resumo:
Le vieillissement de la population canadienne prévisible dans les prochaines années entrainera d’importants changements au point de vue social. L’un d’eux est l’augmentation fulgurante du nombre d’aînés en état d’incapacité. Utilisant le modèle de microsimulation LifePaths, cette recherche compare deux projections, ayant des méthodologies différentes, du nombre d’individus en incapacité de 65 ans et plus vivant en ménage privé en 2031. La première méthode utilise le module d’incapacité de LifePaths pour générer les individus en incapacité tandis que la seconde méthode utilise plutôt une régression logistique ordonnée pour les obtenir. Les projections du nombre d’individus en état d’incapacité des deux méthodes nous permettent une comparaison entre ces résultats. Suite à l’élaboration de tableaux et de graphiques permettant de tracer un portait de la situation, cette recherche essaie de démystifier les sources possibles à l’origine de ces différences. Les résultats montrent d’importantes différences entre les projections, spécifiquement pour les individus en état d’incapacité sévère. De plus, lorsqu’on s’intéresse aux variables d’intérêts, on remarque que les différences de projections d’effectifs sont importantes chez les hommes et les gens mariés. Par contre, lorsque les proportions sont analysées, c’est plutôt le groupe d’âges 80 ans et plus ainsi que les projections pour la province du Québec qui créent problème. Ces différences sont attribuables aux caractéristiques d’un modèle de microsimulation, aux populations de départ ainsi qu’aux paramètres définis. Les résultats démontrés dans cette recherche mettent en garde sur les travaux étudiant le nombre d’individus en incapacité dans le futur. Nos deux méthodes ayant des résultats différents, nous ne pouvons pas conclure avec certitude quelle sera la situation dans le futur.