863 resultados para random regression model
Resumo:
In this study, 39 sets of hard turning (HT) experimental trials were performed on a Mori-Seiki SL-25Y (4-axis) computer numerical controlled (CNC) lathe to study the effect of cutting parameters in influencing the machined surface roughness. In all the trials, AISI 4340 steel workpiece (hardened up to 69 HRC) was machined with a commercially available CBN insert (Warren Tooling Limited, UK) under dry conditions. The surface topography of the machined samples was examined by using a white light interferometer and a reconfirmation of measurement was done using a Form Talysurf. The machining outcome was used as an input to develop various regression models to predict the average machined surface roughness on this material. Three regression models - Multiple regression, Random Forest, and Quantile regression were applied to the experimental outcomes. To the best of the authors’ knowledge, this paper is the first to apply Random Forest or Quantile regression techniques to the machining domain. The performance of these models was compared to each other to ascertain how feed, depth of cut, and spindle speed affect surface roughness and finally to obtain a mathematical equation correlating these variables. It was concluded that the random forest regression model is a superior choice over multiple regression models for prediction of surface roughness during machining of AISI 4340 steel (69 HRC).
Resumo:
A parametric regression model for right-censored data with a log-linear median regression function and a transformation in both response and regression parts, named parametric Transform-Both-Sides (TBS) model, is presented. The TBS model has a parameter that handles data asymmetry while allowing various different distributions for the error, as long as they are unimodal symmetric distributions centered at zero. The discussion is focused on the estimation procedure with five important error distributions (normal, double-exponential, Student's t, Cauchy and logistic) and presents properties, associated functions (that is, survival and hazard functions) and estimation methods based on maximum likelihood and on the Bayesian paradigm. These procedures are implemented in TBSSurvival, an open-source fully documented R package. The use of the package is illustrated and the performance of the model is analyzed using both simulated and real data sets.
An integrated approach for real-time model-based state-of-charge estimation of lithium-ion batteries
Resumo:
Lithium-ion batteries have been widely adopted in electric vehicles (EVs), and accurate state of charge (SOC) estimation is of paramount importance for the EV battery management system. Though a number of methods have been proposed, the SOC estimation for Lithium-ion batteries, such as LiFePo4 battery, however, faces two key challenges: the flat open circuit voltage (OCV) vs SOC relationship for some SOC ranges and the hysteresis effect. To address these problems, an integrated approach for real-time model-based SOC estimation of Lithium-ion batteries is proposed in this paper. Firstly, an auto-regression model is adopted to reproduce the battery terminal behaviour, combined with a non-linear complementary model to capture the hysteresis effect. The model parameters, including linear parameters and non-linear parameters, are optimized off-line using a hybrid optimization method that combines a meta-heuristic method (i.e., the teaching learning based optimization method) and the least square method. Secondly, using the trained model, two real-time model-based SOC estimation methods are presented, one based on the real-time battery OCV regression model achieved through weighted recursive least square method, and the other based on the state estimation using the extended Kalman filter method (EKF). To tackle the problem caused by the flat OCV-vs-SOC segments when the OCV-based SOC estimation method is adopted, a method combining the coulombic counting and the OCV-based method is proposed. Finally, modelling results and SOC estimation results are presented and analysed using the data collected from LiFePo4 battery cell. The results confirmed the effectiveness of the proposed approach, in particular the joint-EKF method.
Resumo:
The likelihood of smallholder farmers not participating in agroforestry agri-environmental schemes and payments for ecosystem services (PES) may be due to limited farmland endowment and formal credit constraints. These deficits may lead to an ‘exclusive club’ of successful farmers, which are not necessarily poor, enjoying the benefits of agri-environmental schemes and PES although agrienvironmental schemes and PES have been devised as a means of fostering rural sustainable development and improving the livelihood of poor smallholder farmers. Smallholder farmers in parts of rural Kenya continue to enroll in ‘The International Small Group Tree Planting Programme’ (TIST), an agri-environmental scheme, promoting agroforestry, carbon sequestration and conservation agriculture (CA). The question remains if these farmers are really poor? This study examines factors that determine the participation of smallholder farmers in TIST in parts of rural Kenya. We use survey data compiled in 2013 on 210 randomly selected smallholder farmers from Embu, Meru and Nanyuki communities; the sample consists of TIST and non-TIST members. A random utility model and logit regression were used to test a set of non-monetary and monetary factors that influence participation in the TIST. The utility function is conceptualized to give non-monetary factors, particularly the common medium of communication in rural areas – formal and informal – a central role. Furthermore, we investigate other factors (incl. credit accessibility and interest rate) that reveal the nature of farmers participating in TIST. The findings suggest that spread of information via formal and informal networks is a major driver of participation in the TIST program. Furthermore, variables such credit constrains, age and labour supply positively correlate with TIST participation, while for education the opposite is true. It is important to mention that these correlations, although somewhat consistent, were all found to be weak. The results indicate that participation in the TIST program is not influenced by farm size; therefore we argue that the TIST scheme is NOT an ‘exclusive club’ comprising wealthy and successful farmers. Older farmers’ being more likely to join the TIST is an argument for their long- rather than widely assumed short-term planning horizon and a new contribution to the literature. Given the importance of poverty alleviation and climate smart agriculture in developing countries, sustainable policy should strengthening the social and human capital as well as informal networks in rural areas. Extension services should effectively communicate benefits to less educated and credit constrained farmers.
Resumo:
PURPOSE: To assess the sensitivity and specificity of models predicting myopia onset among ethnically Chinese children. METHODS: Visual acuity, height, weight, biometry (A-scan, keratometry), and refractive error were assessed at baseline and 3 years later using the same equipment and protocol in primary schools in Xiamen (China) and Singapore. A regression model predicting the onset of myopia < -0.75 diopters (D) after 3 years in either eye among Xiamen children was validated with Singapore data. RESULTS: Baseline data were collected from 236 Xiamen children (mean age, 7.82 ± 0.63 years) and from 1979 predominantly Chinese children in Singapore (7.83 ± 0.84 years). Singapore children were significantly taller and heavier, and had more myopia (31.4% vs. 6.36% < -0.75 D in either eye, P < 0.001) and longer mean axial length. Three-year follow-up was available for 80.0% of Xiamen children and 83.1% in Singapore. For Xiamen, the area under the receiver-operator curve (AUC) in a model including ocular biometry, height, weight, and presenting visual acuity was 0.974 (95% confidence interval [CI], 0.945-0.997). In Singapore, the same model achieved sensitivity, specificity, and positive predictive value of 0.844, 0.650, and 0.669, with an AUC of 0.815 (95% CI, 0.791-0.839). CONCLUSIONS: Accuracy in predicting myopia onset based on simple measurements may be sufficient to make targeted early intervention practical in settings such as Singapore with high myopia prevalence. Models based on cohorts with a greater prevalence of high myopia than that in Xiamen could be used to assess accuracy of models predicting more severe forms of myopia.
Resumo:
OBJECTIVE: Studies indicate an inverse association between ductal adenocarcinoma of the pancreas (PDAC) and nasal allergies. However, controversial findings are reported for the association with asthma. Understanding PDAC risk factors will help us to implement appropriate strategies to prevent, treat and diagnose this cancer. This study assessed and characterised the association between PDAC and asthma and corroborated existing reports regarding the association between allergies and PDAC risk.
DESIGN: Information about asthma and allergies was collated from 1297 PDAC cases and 1024 controls included in the PanGenEU case-control study. Associations between PDAC and atopic diseases were studied using multilevel logistic regression analysis. Meta-analyses of association studies on these diseases and PDAC risk were performed applying random-effects model.
RESULTS: Asthma was associated with lower risk of PDAC (OR 0.64, 95% CI 0.47 to 0.88), particularly long-standing asthma (>=17 years, OR 0.39, 95% CI 0.24 to 0.65). Meta-analysis of 10 case-control studies sustained our results (metaOR 0.73, 95% CI 0.59 to 0.89). Nasal allergies and related symptoms were associated with lower risk of PDAC (OR 0.66, 95% CI 0.52 to 0.83 and OR 0.59, 95% CI 0.46 to 0.77, respectively). These results were supported by a meta-analysis of nasal allergy studies (metaOR 0.6, 95% CI 0.5 to 0.72). Skin allergies were not associated with PDAC risk.
CONCLUSIONS: This study shows a consistent inverse association between PDAC and asthma and nasal allergies, supporting the notion that atopic diseases are associated with reduced cancer risk. These results point to the involvement of immune and/or inflammatory factors that may either foster or restrain pancreas carcinogenesis warranting further research to understand the molecular mechanisms driving this association.
Resumo:
Objectives: To characterize the epidemiology and risk factors for acute kidney injury (AKI) after pediatric cardiac surgery in our center, to determine its association with poor short-term outcomes, and to develop a logistic regression model that will predict the risk of AKI for the study population. Methods: This single-center, retrospective study included consecutive pediatric patients with congenital heart disease who underwent cardiac surgery between January 2010 and December 2012. Exclusion criteria were a history of renal disease, dialysis or renal transplantation. Results: Of the 325 patients included, median age three years (1 day---18 years), AKI occurred in 40 (12.3%) on the first postoperative day. Overall mortality was 13 (4%), nine of whom were in the AKI group. AKI was significantly associated with length of intensive care unit stay, length of mechanical ventilation and in-hospital death (p<0.01). Patients’ age and postoperative serum creatinine, blood urea nitrogen and lactate levels were included in the logistic regression model as predictor variables. The model accurately predicted AKI in this population, with a maximum combined sensitivity of 82.1% and specificity of 75.4%. Conclusions: AKI is common and is associated with poor short-term outcomes in this setting. Younger age and higher postoperative serum creatinine, blood urea nitrogen and lactate levels were powerful predictors of renal injury in this population. The proposed model could be a useful tool for risk stratification of these patients.
Resumo:
Due to global warming and shrinking fossil fuel resources, politics as well as society urge for a reduction of green house gas (GHG) emissions. This leads to a re-orientation towards a renewable energy sector. In this context, innovation and new technologies are key success factors. Moreover, the renewable energy sector has entered a consolidation stage, where corporate investors and mergers and acquisitions (M&A) gain in importance. Although both M&A and innovation in the renewable energy sector are important corporate strategies, the link between those two aspects has not been examined before. The present thesis examines the research question how M&A influence the acquirer’s post-merger innovative performance in the renewable energy sector. Based on a framework of relevant literature, three hypotheses are defined. First, the relation between non-technology oriented M&A and post-merger innovative performance is discussed. Second, the impact of absolute acquired knowledge on postmerger innovativeness is examined. Third, the target-acquirer relatedness is discussed. A panel data set of 117 firms collected over a period of six years has been analyzed via a random effects negative binomial regression model and a time lag of one year. The results support a non-significant, negative impact of non-technology M&A on postmerger innovative performance. The applied model did not support a positive and significant impact of absolute acquired knowledge on post-merger innovative performance. Lastly, the results suggest a reverse relation than postulated by Hypothesis 3. Targets from the same industry significantly and negatively influence the acquirers’ innovativeness.
Resumo:
Several Authors Have Discussed Recently the Limited Dependent Variable Regression Model with Serial Correlation Between Residuals. the Pseudo-Maximum Likelihood Estimators Obtained by Ignoring Serial Correlation Altogether, Have Been Shown to Be Consistent. We Present Alternative Pseudo-Maximum Likelihood Estimators Which Are Obtained by Ignoring Serial Correlation Only Selectively. Monte Carlo Experiments on a Model with First Order Serial Correlation Suggest That Our Alternative Estimators Have Substantially Lower Mean-Squared Errors in Medium Size and Small Samples, Especially When the Serial Correlation Coefficient Is High. the Same Experiments Also Suggest That the True Level of the Confidence Intervals Established with Our Estimators by Assuming Asymptotic Normality, Is Somewhat Lower Than the Intended Level. Although the Paper Focuses on Models with Only First Order Serial Correlation, the Generalization of the Proposed Approach to Serial Correlation of Higher Order Is Also Discussed Briefly.
Resumo:
L’objectif de cette étude était de déterminer l’impact d’une infection intra-mammaire (IIM) subclinique causée par staphylocoque coagulase-négative (SCN) ou Staphylococcus aureus diagnostiquée durant le premier mois de lactation chez les taures sur le comptage de cellules somatiques (CCS), la production laitière et le risque de réforme durant la lactation en cours. Des données bactériologiques provenant d’échantillons de lait composites de 2 273 taures Holstein parmi 50 troupeaux ont été interprétées selon les recommandations du National Mastitis Council. Parmi 1 691 taures rencontrant les critères de sélection, 90 (5%) étaient positives à S. aureus, 168 (10%) étaient positives à SCN et 153 (9%) étaient négatives (aucun agent pathogène isolé). Le CCS transformé en logarithme népérien (lnCCS) a été modélisé via une régression linéaire avec le troupeau comme effet aléatoire. Le lnCCS chez les groupes S. aureus et SCN était significativement plus élevé que dans le groupe témoin de 40 à 300 jours en lait (JEL) (P < 0.0001 pour tous les contrastes). La valeur journalière du lnSCC chez les groupes S. aureus et SCN était en moyenne 1.2 et 0.6 plus élevé que le groupe témoin respectivement. Un modèle similaire a été réalisé pour la production laitière avec l’âge au vêlage, le trait génétique lié aux parents pour la production laitière et le logarithme népérien du JEL de la pesée inclus. La production laitière n’était pas statistiquement différente entre les 3 groupes de culture de 40 à 300 JEL (P ≥ 0.12). Les modèles de survie de Cox ont révélé que le risque de réforme n’était pas statistiquement différent entre le groupe S. aureus ou SCN et le groupe témoin (P ≥ 0.16). La prévention des IIM causées par SCN et S. aureus en début de lactation demeure importante étant donné leur association avec le CCS durant la lactation en cours.
Resumo:
L'imputation est souvent utilisée dans les enquêtes pour traiter la non-réponse partielle. Il est bien connu que traiter les valeurs imputées comme des valeurs observées entraîne une sous-estimation importante de la variance des estimateurs ponctuels. Pour remédier à ce problème, plusieurs méthodes d'estimation de la variance ont été proposées dans la littérature, dont des méthodes adaptées de rééchantillonnage telles que le Bootstrap et le Jackknife. Nous définissons le concept de double-robustesse pour l'estimation ponctuelle et de variance sous l'approche par modèle de non-réponse et l'approche par modèle d'imputation. Nous mettons l'emphase sur l'estimation de la variance à l'aide du Jackknife qui est souvent utilisé dans la pratique. Nous étudions les propriétés de différents estimateurs de la variance à l'aide du Jackknife pour l'imputation par la régression déterministe ainsi qu'aléatoire. Nous nous penchons d'abord sur le cas de l'échantillon aléatoire simple. Les cas de l'échantillonnage stratifié et à probabilités inégales seront aussi étudiés. Une étude de simulation compare plusieurs méthodes d'estimation de variance à l'aide du Jackknife en terme de biais et de stabilité relative quand la fraction de sondage n'est pas négligeable. Finalement, nous établissons la normalité asymptotique des estimateurs imputés pour l'imputation par régression déterministe et aléatoire.
Resumo:
L’imputation simple est très souvent utilisée dans les enquêtes pour compenser pour la non-réponse partielle. Dans certaines situations, la variable nécessitant l’imputation prend des valeurs nulles un très grand nombre de fois. Ceci est très fréquent dans les enquêtes entreprises qui collectent les variables économiques. Dans ce mémoire, nous étudions les propriétés de deux méthodes d’imputation souvent utilisées en pratique et nous montrons qu’elles produisent des estimateurs imputés biaisés en général. Motivé par un modèle de mélange, nous proposons trois méthodes d’imputation et étudions leurs propriétés en termes de biais. Pour ces méthodes d’imputation, nous considérons un estimateur jackknife de la variance convergent vers la vraie variance, sous l’hypothèse que la fraction de sondage est négligeable. Finalement, nous effectuons une étude par simulation pour étudier la performance des estimateurs ponctuels et de variance en termes de biais et d’erreur quadratique moyenne.
Resumo:
La dialyse péritonéale (DP) est une thérapie d’épuration extra-rénale qui peut se réaliser à domicile par l’entremise d’une technologie. Elle exige, du patient certaines aptitudes, (motivation et compétence) et de l’équipe de soins, une organisation particulière pour arriver à une autonomie d’exécution de l’épuration. Dans un contexte de thérapie à domicile, comme celui de la dialyse péritonéale, le niveau d’autonomie des patients ainsi que les facteurs qui y sont associés n’ont pas été examinés auparavant. C’est l’objet de cette thèse. En se fondant sur la théorie de l’autodétermination et sur une revue de la littérature, un cadre conceptuel a été développé et fait l’hypothèse que trois types de facteurs essentiels pourraient influencer l’autonomie. Il s’agit de facteurs individuels, technologiques et organisationnels. Pour tester ces hypothèses, un devis mixte séquentiel, composé de deux volets, a été réalisé. Un premier volet qualitatif - opérationnalisé par des entrevues auprès de 12 patients et de 11 infirmières - a permis, d’une part, d’explorer et de mieux définir les dimensions de l’autonomie pertinente dans le cadre de la DP; d’autre part de bonifier le développement d’un questionnaire. Après validation, ce dernier a servi à la collecte de données lors du deuxième volet quantitatif et alors a permis d’obtenir des résultats auprès d’un échantillon probabiliste (n =98), tiré de la population des dialysés péritonéaux du Québec (N=700). L’objectif de ce deuxième volet était de mesurer le degré d’autonomie des patients, d’examiner les associations entre les facteurs technologiques, organisationnels ainsi qu’individuels et les différentes dimensions de l’autonomie. Des analyses univariées et multivariées ont été réalisées à cet effet. Les résultats obtenus montrent que quatre dimensions d’autonomie sont essentielles à atteindre en dialyse à domicile. Il s’agit de l’autonomie, sur le plan clinique, technique, fonctionnel (liberté journalière) et organisationnel (indépendance par rapport à l’institution de soins). Pour ces quatre types d’autonomie, les patients ont rapporté être hautement autonomes, un résultat qui se reflète dans les scores obtenus sur une échelle de 1 à 5 : l’autonomie clinique (4,1), l’autonomie technique (4,8), l’autonomie fonctionnelle (4,1) et l’autonomie organisationnelle (4,5). Chacun de ces types d’autonomie est associé à des degrés variables aux trois facteurs du modèle conceptuel : facteurs individuels (motivation et compétence), technologique (convivialité) et organisationnels (soutien clinique, technique et familial). Plus spécifiquement, la motivation serait associée à l’autonomie fonctionnelle. La convivialité serait associée à l’autonomie clinique, alors que la myopathie pourrait la compromettre. La convivialité de la technologie et la compétence du patient contribueraient à une meilleure autonomie organisationnelle. Quant à l’autonomie sur le plan technique, tous les patients ont rapporté être hautement autonomes en ce qui concerne la manipulation de la technologie. Ce résultat s’expliquerait par une formation adéquate mise à la disposition des patients en prédialyse, par le suivi continu et par la manipulation quotidienne pendant des années d’utilisation. Bien que dans cette thèse la technologie d’application soit la dialyse péritonéale, nous retenons que lorsqu’on transfère la maîtrise d’une technologie thérapeutique à domicile pour traiter une maladie chronique, il est primordial d’organiser ce transfert de telle façon que les trois facteurs techniques (convivialité), individuels (motivation, formation et compétence), et organisationnels (soutien de l’aidant) soient mis en place pour garantir une autonomie aux quatre niveaux, technique, clinique, fonctionnel et organisationnel.
Resumo:
Le but de cette thèse est d étendre la théorie du bootstrap aux modèles de données de panel. Les données de panel s obtiennent en observant plusieurs unités statistiques sur plusieurs périodes de temps. Leur double dimension individuelle et temporelle permet de contrôler l 'hétérogénéité non observable entre individus et entre les périodes de temps et donc de faire des études plus riches que les séries chronologiques ou les données en coupe instantanée. L 'avantage du bootstrap est de permettre d obtenir une inférence plus précise que celle avec la théorie asymptotique classique ou une inférence impossible en cas de paramètre de nuisance. La méthode consiste à tirer des échantillons aléatoires qui ressemblent le plus possible à l échantillon d analyse. L 'objet statitstique d intérêt est estimé sur chacun de ses échantillons aléatoires et on utilise l ensemble des valeurs estimées pour faire de l inférence. Il existe dans la littérature certaines application du bootstrap aux données de panels sans justi cation théorique rigoureuse ou sous de fortes hypothèses. Cette thèse propose une méthode de bootstrap plus appropriée aux données de panels. Les trois chapitres analysent sa validité et son application. Le premier chapitre postule un modèle simple avec un seul paramètre et s 'attaque aux propriétés théoriques de l estimateur de la moyenne. Nous montrons que le double rééchantillonnage que nous proposons et qui tient compte à la fois de la dimension individuelle et la dimension temporelle est valide avec ces modèles. Le rééchantillonnage seulement dans la dimension individuelle n est pas valide en présence d hétérogénéité temporelle. Le ré-échantillonnage dans la dimension temporelle n est pas valide en présence d'hétérogénéité individuelle. Le deuxième chapitre étend le précédent au modèle panel de régression. linéaire. Trois types de régresseurs sont considérés : les caractéristiques individuelles, les caractéristiques temporelles et les régresseurs qui évoluent dans le temps et par individu. En utilisant un modèle à erreurs composées doubles, l'estimateur des moindres carrés ordinaires et la méthode de bootstrap des résidus, on montre que le rééchantillonnage dans la seule dimension individuelle est valide pour l'inférence sur les coe¢ cients associés aux régresseurs qui changent uniquement par individu. Le rééchantillonnage dans la dimen- sion temporelle est valide seulement pour le sous vecteur des paramètres associés aux régresseurs qui évoluent uniquement dans le temps. Le double rééchantillonnage est quand à lui est valide pour faire de l inférence pour tout le vecteur des paramètres. Le troisième chapitre re-examine l exercice de l estimateur de différence en di¤érence de Bertrand, Duflo et Mullainathan (2004). Cet estimateur est couramment utilisé dans la littérature pour évaluer l impact de certaines poli- tiques publiques. L exercice empirique utilise des données de panel provenant du Current Population Survey sur le salaire des femmes dans les 50 états des Etats-Unis d Amérique de 1979 à 1999. Des variables de pseudo-interventions publiques au niveau des états sont générées et on s attend à ce que les tests arrivent à la conclusion qu il n y a pas d e¤et de ces politiques placebos sur le salaire des femmes. Bertrand, Du o et Mullainathan (2004) montre que la non-prise en compte de l hétérogénéité et de la dépendance temporelle entraîne d importantes distorsions de niveau de test lorsqu'on évalue l'impact de politiques publiques en utilisant des données de panel. Une des solutions préconisées est d utiliser la méthode de bootstrap. La méthode de double ré-échantillonnage développée dans cette thèse permet de corriger le problème de niveau de test et donc d'évaluer correctement l'impact des politiques publiques.
Resumo:
Multivariate lifetime data arise in various forms including recurrent event data when individuals are followed to observe the sequence of occurrences of a certain type of event; correlated lifetime when an individual is followed for the occurrence of two or more types of events, or when distinct individuals have dependent event times. In most studies there are covariates such as treatments, group indicators, individual characteristics, or environmental conditions, whose relationship to lifetime is of interest. This leads to a consideration of regression models.The well known Cox proportional hazards model and its variations, using the marginal hazard functions employed for the analysis of multivariate survival data in literature are not sufficient to explain the complete dependence structure of pair of lifetimes on the covariate vector. Motivated by this, in Chapter 2, we introduced a bivariate proportional hazards model using vector hazard function of Johnson and Kotz (1975), in which the covariates under study have different effect on two components of the vector hazard function. The proposed model is useful in real life situations to study the dependence structure of pair of lifetimes on the covariate vector . The well known partial likelihood approach is used for the estimation of parameter vectors. We then introduced a bivariate proportional hazards model for gap times of recurrent events in Chapter 3. The model incorporates both marginal and joint dependence of the distribution of gap times on the covariate vector . In many fields of application, mean residual life function is considered superior concept than the hazard function. Motivated by this, in Chapter 4, we considered a new semi-parametric model, bivariate proportional mean residual life time model, to assess the relationship between mean residual life and covariates for gap time of recurrent events. The counting process approach is used for the inference procedures of the gap time of recurrent events. In many survival studies, the distribution of lifetime may depend on the distribution of censoring time. In Chapter 5, we introduced a proportional hazards model for duration times and developed inference procedures under dependent (informative) censoring. In Chapter 6, we introduced a bivariate proportional hazards model for competing risks data under right censoring. The asymptotic properties of the estimators of the parameters of different models developed in previous chapters, were studied. The proposed models were applied to various real life situations.