938 resultados para Linear Mixed Integer Multicriteria Optimization


Relevância:

100.00% 100.00%

Publicador:

Resumo:

We compared the health-related quality-of-life of patients with newly diagnosed multiple myeloma aged over 65 years or transplant-ineligible in the pivotal, phase III FIRST trial. Patients received: i) continuous lenalidomide and low-dose dexamethasone until disease progression; ii) fixed cycles of lenalidomide and low-dose dexamethasone for 18 months; or iii) fixed cycles of melphalan, prednisone, thalidomide for 18 months. Data were collected using the validated questionnaires (QLQ-MY20, QLQ-C30, and EQ-5D). The analysis focused on the EQ-5D utility value and six domains pre-selected for their perceived clinical relevance. Lenalidomide and low-dose dexamethasone, and melphalan, prednisone, thalidomide improved patients' health-related quality-of-life from baseline over the duration of the study across all pre-selected domains of the QLQ-C30 and EQ-5D. In the QLQ-MY20, lenalidomide and low-dose dexamethasone demonstrated a significantly greater reduction in the Disease Symptoms domain compared with melphalan, prednisone, thalidomide at Month 3, and significantly lower scores for QLQ-MY20 Side Effects of Treatment at all post-baseline assessments except Month 18. Linear mixed-model repeated-measures analyses confirmed the results observed in the cross-sectional analysis. Continuous lenalidomide and low-dose dexamethasone delays disease progression versus melphalan, prednisone, thalidomide and has been associated with a clinically meaningful improvement in health-related quality-of-life. These results further establish continuous lenalidomide and low-dose dexamethasone as a new standard of care for initial therapy of myeloma by demonstrating superior health-related quality-of-life during treatment, compared with melphalan, prednisone, thalidomide.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

OBJECTIVE: We examined the influence of clinical, radiologic, and echocardiographic characteristics on antithrombotic choice in patients with cryptogenic stroke (CS) and patent foramen ovale (PFO), hypothesizing that features suggestive of paradoxical embolism might lead to greater use of anticoagulation. METHODS: The Risk of Paradoxical Embolism Study combined 12 databases to create the largest dataset of patients with CS and known PFO status. We used generalized linear mixed models with a random effect of component study to explore whether anticoagulation was preferentially selected based on the following: (1) younger age and absence of vascular risk factors, (2) "high-risk" echocardiographic features, and (3) neuroradiologic findings. RESULTS: A total of 1,132 patients with CS and PFO treated with anticoagulation or antiplatelets were included. Overall, 438 participants (39%) were treated with anticoagulation with a range (by database) of 22% to 54%. Treatment choice was not influenced by age or vascular risk factors. However, neuroradiologic findings (superficial or multiple infarcts) and high-risk echocardiographic features (large shunts, shunt at rest, and septal hypermobility) were predictors of anticoagulation use. CONCLUSION: Both antithrombotic regimens are widely used for secondary stroke prevention in patients with CS and PFO. Radiologic and echocardiographic features were strongly associated with treatment choice, whereas conventional vascular risk factors were not. Prior observational studies are likely to be biased by confounding by indication.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

PURPOSE: To meta-analyze the literature on the clinical performance of Class V restorations to assess the factors that influence retention, marginal integrity, and marginal discoloration of cervical lesions restored with composite resins, glass-ionomer-cement-based materials [glass-ionomer cement (GIC) and resin-modified glass ionomers (RMGICs)], and polyacid-modified resin composites (PMRC). MATERIALS AND METHODS: The English literature was searched (MEDLINE and SCOPUS) for prospective clinical trials on cervical restorations with an observation period of at least 18 months. The studies had to report about retention, marginal discoloration, marginal integrity, and marginal caries and include a description of the operative technique (beveling of enamel, roughening of dentin, type of isolation). Eighty-one studies involving 185 experiments for 47 adhesives matched the inclusion criteria. The statistical analysis was carried out by using the following linear mixed model: log (-log (Y /100)) = β + α log(T ) + error with β = log(λ), where β is a summary measure of the non-linear deterioration occurring in each experiment, including a random study effect. RESULTS: On average, 12.3% of the cervical restorations were lost, 27.9% exhibited marginal discoloration, and 34.6% exhibited deterioration of marginal integrity after 5 years. The calculation of the clinical index was 17.4% of failures after 5 years and 32.3% after 8 years. A higher variability was found for retention loss and marginal discoloration. Hardly any secondary caries lesions were detected, even in the experiments with a follow-up time longer than 8 years. Restorations placed using rubber-dam in teeth whose dentin was roughened showed a statistically significantly higher retention rate than those placed in teeth with unprepared dentin or without rubber-dam (p < 0.05). However, enamel beveling had no influence on any of the examined variables. Significant differences were found between pairs of adhesive systems and also between pairs of classes of adhesive systems. One-step self-etching had a significantly worse clinically index than two-step self-etching and three-step etch-and-rinse (p = 0.026 and p = 0.002, respectively). CONCLUSION: The clinical performance is significantly influenced by the type of adhesive system and/or the adhesive class to which the system belongs. Whether the dentin/enamel is roughened or not and whether rubberdam isolation is used or not also significantly influenced the clinical performance. Composite resin restorations placed with two-step self-etching and three-step etch-and-rinse adhesive systems should be preferred over onestep self-etching adhesive systems, GIC-based materials, and PMRCs.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

BACKGROUND: High interindividual variability in plasma concentrations of risperidone and its active metabolite, 9-hydroxyrisperidone, may lead to suboptimal drug concentration. OBJECTIVE: Using a population pharmacokinetic approach, we aimed to characterize the genetic and non-genetic sources of variability affecting risperidone and 9-hydroxyrisperidone pharmacokinetics, and relate them to common side effects. METHODS: Overall, 150 psychiatric patients (178 observations) treated with risperidone were genotyped for common polymorphisms in NR1/2, POR, PPARα, ABCB1, CYP2D6 and CYP3A genes. Plasma risperidone and 9-hydroxyrisperidone were measured, and clinical data and common clinical chemistry parameters were collected. Drug and metabolite concentrations were analyzed using non-linear mixed effect modeling (NONMEM(®)). Correlations between trough concentrations of the active moiety (risperidone plus 9-hydroxyrisperidone) and common side effects were assessed using logistic regression and linear mixed modeling. RESULTS: The cytochrome P450 (CYP) 2D6 phenotype explained 52 % of interindividual variability in risperidone pharmacokinetics. The area under the concentration-time curve (AUC) of the active moiety was found to be 28 % higher in CYP2D6 poor metabolizers compared with intermediate, extensive and ultrarapid metabolizers. No other genetic markers were found to significantly affect risperidone concentrations. 9-hydroxyrisperidone elimination was decreased by 26 % with doubling of age. A correlation between trough predicted concentration of the active moiety and neurologic symptoms was found (p = 0.03), suggesting that a concentration >40 ng/mL should be targeted only in cases of insufficient, or absence of, response. CONCLUSIONS: Genetic polymorphisms of CYP2D6 play an important role in risperidone, 9-hydroxyrisperidone and active moiety plasma concentration variability, which were associated with common side effects. These results highlight the importance of a personalized dosage adjustment during risperidone treatment.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This study examined the independent effect of skewness and kurtosis on the robustness of the linear mixed model (LMM), with the Kenward-Roger (KR) procedure, when group distributions are different, sample sizes are small, and sphericity cannot be assumed. Methods: A Monte Carlo simulation study considering a split-plot design involving three groups and four repeated measures was performed. Results: The results showed that when group distributions are different, the effect of skewness on KR robustness is greater than that of kurtosis for the corresponding values. Furthermore, the pairings of skewness and kurtosis with group size were found to be relevant variables when applying this procedure. Conclusions: With sample sizes of 45 and 60, KR is a suitable option for analyzing data when the distributions are: (a) mesokurtic and not highly or extremely skewed, and (b) symmetric with different degrees of kurtosis. With total sample sizes of 30, it is adequate when group sizes are equal and the distributions are: (a) mesokurtic and slightly or moderately skewed, and sphericity is assumed; and (b) symmetric with a moderate or high/extreme violation of kurtosis. Alternative analyses should be considered when the distributions are highly or extremely skewed and samples sizes are small.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

IMPORTANCE: The 16p11.2 BP4-BP5 duplication is the copy number variant most frequently associated with autism spectrum disorder (ASD), schizophrenia, and comorbidities such as decreased body mass index (BMI). OBJECTIVES: To characterize the effects of the 16p11.2 duplication on cognitive, behavioral, medical, and anthropometric traits and to understand the specificity of these effects by systematically comparing results in duplication carriers and reciprocal deletion carriers, who are also at risk for ASD. DESIGN, SETTING, AND PARTICIPANTS: This international cohort study of 1006 study participants compared 270 duplication carriers with their 102 intrafamilial control individuals, 390 reciprocal deletion carriers, and 244 deletion controls from European and North American cohorts. Data were collected from August 1, 2010, to May 31, 2015 and analyzed from January 1 to August 14, 2015. Linear mixed models were used to estimate the effect of the duplication and deletion on clinical traits by comparison with noncarrier relatives. MAIN OUTCOMES AND MEASURES: Findings on the Full-Scale IQ (FSIQ), Nonverbal IQ, and Verbal IQ; the presence of ASD or other DSM-IV diagnoses; BMI; head circumference; and medical data. RESULTS: Among the 1006 study participants, the duplication was associated with a mean FSIQ score that was lower by 26.3 points between proband carriers and noncarrier relatives and a lower mean FSIQ score (16.2-11.4 points) in nonproband carriers. The mean overall effect of the deletion was similar (-22.1 points; P < .001). However, broad variation in FSIQ was found, with a 19.4- and 2.0-fold increase in the proportion of FSIQ scores that were very low (≤40) and higher than the mean (>100) compared with the deletion group (P < .001). Parental FSIQ predicted part of this variation (approximately 36.0% in hereditary probands). Although the frequency of ASD was similar in deletion and duplication proband carriers (16.0% and 20.0%, respectively), the FSIQ was significantly lower (by 26.3 points) in the duplication probands with ASD. There also were lower head circumference and BMI measurements among duplication carriers, which is consistent with the findings of previous studies. CONCLUSIONS AND RELEVANCE: The mean effect of the duplication on cognition is similar to that of the reciprocal deletion, but the variance in the duplication is significantly higher, with severe and mild subgroups not observed with the deletion. These results suggest that additional genetic and familial factors contribute to this variability. Additional studies will be necessary to characterize the predictors of cognitive deficits.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Abstract Background HIV-1 infection increases plasma levels of inflammatory markers. Combination antiretroviral therapy (cART) does not restore inflammatory markers to normal levels. Since intensification of cART with raltegravir reduced CD8 T-cell activation in the Discor-Ral and IntegRal studies, we have evaluated the effect of raltegravir intensification on several soluble inflammation markers in these studies. Methods Longitudinal plasma samples (0–48 weeks) from the IntegRal (n = 67, 22 control and 45 intensified individuals) and the Discor-Ral studies (44 individuals with CD4 T-cell counts<350 cells/µl, 14 control and 30 intensified) were assayed for 25 markers. Mann-Whitney, Wilcoxon, Spearman test and linear mixed models were used for analysis. Results At baseline, different inflammatory markers were strongly associated with HCV co-infection, lower CD4 counts and with cART regimens (being higher in PI-treated individuals), but poorly correlated with detection of markers of residual viral replication. Although raltegravir intensification reduced inflammation in individuals with lower CD4 T-cell counts, no effect of intensification was observed on plasma markers of inflammation in a global analysis. An association was found, however, between reductions in immune activation and plasma levels of the coagulation marker D-dimer, which exclusively decreased in intensified patients on protease inhibitor (PI)-based cART regimens (P = 0.040). Conclusions The inflammatory profile in treated HIV-infected individuals showed a complex association with HCV co-infection, the levels of CD4 T cells and the cART regimen. Raltegravir intensification specifically reduced D-dimer levels in PI-treated patients, highlighting the link between cART composition and residual viral replication; however, raltegravir had little effect on other inflammatory markers.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Purpose Encouraging office workers to ‘sit less and move more’ encompasses two public health priorities. However, there is little evidence on the effectiveness of workplace interventions for reducing sitting, even less about the longer term effects of such interventions and still less on dual-focused interventions. This study assessed the short and mid-term impacts of a workplace web-based intervention (Walk@WorkSpain, W@WS; 2010-11) on self-reported sitting time, step counts and physical risk factors (waist circumference, BMI, blood pressure) for chronic disease. Methods Employees at six Spanish university campuses (n=264; 42±10 years; 171 female) were randomly assigned by worksite and campus to an Intervention (used W@WS; n=129; 87 female) or a Comparison group (maintained normal behavior; n=135; 84 female). This phased, 19-week program aimed to decrease occupational sitting time through increased incidental movement and short walks. A linear mixed model assessed changes in outcome measures between the baseline, ramping (8 weeks), maintenance (11 weeks) and followup (two months) phases for Intervention versus Comparison groups.A significant 2 (group) × 2 (program phases) interaction was found for self-reported occupational sitting (F[3]=7.97, p=0.046), daily step counts (F[3]=15.68, p=0.0013) and waist circumference (F[3]=11.67, p=0.0086). The Intervention group decreased minutes of daily occupational sitting while also increasing step counts from baseline (446±126; 8,862±2,475) through ramping (+425±120; 9,345±2,435), maintenance (+422±123; 9,638±3,131) and follow-up (+414±129; 9,786±3,205). In the Comparison group, compared to baseline (404±106), sitting time remained unchanged through ramping and maintenance, but decreased at follow-up (-388±120), while step counts diminished across all phases. The Intervention group significantly reduced waist circumference by 2.1cms from baseline to follow-up while the Comparison group reduced waist circumference by 1.3cms over the same period. Conclusions W@WSis a feasible and effective evidence-based intervention that can be successfully deployed with sedentary employees to elicit sustained changes on “sitting less and moving more”.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This thesis describes two different approaches for the preparation of polynuclear clusters with interesting structural, magnetic and optical properties. Firstly, exploiting p-tert-butylcalix[4]arene (TBC4) macrocycles together with selected Ln(III) ions for the assembly of emissive single molecule magnets, and secondly the preparation and coordination of a chiral mpmH ligand with selected 3d transition metal ions, working towards the discovery of chiral polynuclear clusters. In Project 1, the coordination chemistry of the TBC4 macrocycle together with Dy(III) and Tb(III) afforded two Ln6[TBC4]2 complexes that have been structurally, magnetically and optically characterized. X-ray diffraction studies reveal that both complexes contain an octahedral core of Ln6 ions capped by two fully deprotonated TBC4 macrocycles. Although the unit cells of the two complexes are very similar, the coordination geometries of their Ln(III) ions are subtly different. Variable temperature ac magnetic susceptibility studies reveal that both complexes display single molecule magnet (SMM) behaviour in zero dc field and the energy barriers and associated pre-exponential factors for each relaxation process have been determined. Low temperature solid state photoluminescence studies reveal that both complexes are emissive; however, the f-f transitions within the Dy6 complex were masked by broad emissions from the TBC4 ligand. In contrast, the Tb(III) complex displayed green emission with the spectrum comprising four sharp bands corresponding to 5D4 → 7FJ transitions (where J = 3, 4, 5 and 6), highlighting that energy transfer from the TBC4 macrocycle to the Tb(III) ion is more effective than to Dy. Examples of zero field Tb(III) SMMs are scarce in the chemical literature and the Tb6[TBC4]2 complex represents the first example of a Tb(III) dual property SMM assembled from a p-tert-butylcalix[4]arene macrocycle with two magnetically derived energy barriers, Ueff of 79 and 63 K. In Project 2, the coordination of both enantiomers of the chiral ligand, α-methyl-2-pyridinemethanol (mpmH) to Ni(II) and Co(II) afforded three polynuclear clusters that have been structurally and magnetically characterized. The first complex, a Ni4 cluster of stoichiometry [Ni4(O2CCMe3)4(mpm)4]·H2O crystallizes in a distorted cubane topology that is well known in Ni(II) cluster chemistry. The final two Co(II) complexes crystallize as a linear mixed valence trimer with stoichiometry [Co3(mpm)6]·(ClO4)2, and a Co4 mixed valence complex [Co(II)¬2Co(III)2(NO3)2(μ-mpm)4(ONO2)2], whose structural topology resembles that of a defective double cubane. All three complexes crystallize in chiral space groups and circular dichroism experiments further confirm that the chirality of the ligand has been transferred to the respective coordination complex. Magnetic susceptibility studies reveal that for all three complexes, there are competing ferro- and antiferromagnetic exchange interactions. The [Co(II)¬2Co(III)2(NO3)2(μ-mpm)4(ONO2)2] complex represents the first example of a chiral mixed valence Co4 cluster with a defective double cubane topology.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Objectifs : Définir les paramètres pharmacocinétiques du pantoprazole intraveineux en soins intensifs pédiatriques et déterminer l’influence qu’exercent sur ceux-ci les facteurs démographiques, le syndrome de réponse inflammatoire systémique (SRIS), la dysfonction hépatique et l’administration d’un inhibiteur du cytochrome (CYP) 2C19. Méthode : Cent cinquante-six concentrations plasmatiques de pantoprazole provenant d’une population de 20 patients (âgés de 10 jours à 16.4 ans) à risque ou atteints d’une hémorragie gastroduodénale de stress, ayant reçu des doses quotidiennes de pantoprazole de 19.9 à 140.6 mg/1.73m2, ont été analysées selon les méthodes non compartimentale et de modélisation non linéaire à effets mixtes. Résultats : Une clairance médiane (CL) de 0.14 L/h/kg, un volume apparent de distribution de 0.20 L/kg et une demi-vie d’élimination de 1.7 h ont été déterminés via l’approche non compartimentale. Le modèle populationnel à deux compartiments avec une infusion d’ordre zéro et une élimination d’ordre un représentait fidèlement la cinétique du pantoprazole. Le poids, le SRIS, la dysfonction hépatique et l’administration d’un inhibiteur du CYP2C19 constituaient les covariables significatives rendant compte de 75 % de la variabilité interindividuelle observée pour la CL. Seul le poids influençait significativement le volume central de distribution (Vc). Selon les estimations du modèle final, un enfant de cinq ans pesant 20 kg avait une CL de 5.28 L/h et un Vc de 2.22 L. La CL du pantoprazole augmentait selon l’âge et le poids tandis qu’elle diminuait respectivement de 62.3%, 65.8% et 50.5% en présence d’un SRIS, d’un inhibiteur du CYP2C19 ou d’une dysfonction hépatique. Conclusion : Ces résultats permettront de guider les cliniciens dans le choix d’une dose de charge et dans l’ajustement des posologies du pantoprazole en soins intensifs pédiatriques dépendamment de facteurs fréquemment rencontrés dans cette population.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’industrie forestière est un secteur qui, même s’il est en déclin, se trouve au cœur du débat sur la mondialisation et le développement durable. Pour de nombreux pays tels que le Canada, la Suède et le Chili, les objectifs sont de maintenir un secteur florissant sans nuire à l’environnement et en réalisant le caractère fini des ressources. Il devient important d’être compétitif et d’exploiter de manière efficace les territoires forestiers, de la récolte jusqu’à la fabrication des produits aux usines, en passant par le transport, dont les coûts augmentent rapidement. L’objectif de ce mémoire est de développer un modèle de planification tactique/opérationnelle qui permet d’ordonnancer les activités pour une année de récolte de façon à satisfaire les demandes des usines, sans perdre de vue le transport des quantités récoltées et la gestion des inventaires en usine. L’année se divise en 26 périodes de deux semaines. Nous cherchons à obtenir les horaires et l’affectation des équipes de récolte aux blocs de coupe pour une année. Le modèle mathématique développé est un problème linéaire mixte en nombres entiers dont la structure est basée sur chaque étape de la chaine d’approvisionnement forestière. Nous choisissons de le résoudre par une méthode exacte, le branch-and-bound. Nous avons pu évaluer combien la résolution directe de notre problème de planification était difficile pour les instances avec un grand nombre de périodes. Cependant l’approche des horizons roulants s’est avérée fructueuse. Grâce à elle en une journée, il est possible de planifier les activités de récolte des blocs pour l’année entière (26 périodes).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les logiciels utilisés sont Splus et R.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette thèse étudie une approche intégrant la gestion de l’horaire et la conception de réseaux de services pour le transport ferroviaire de marchandises. Le transport par rail s’articule autour d’une structure à deux niveaux de consolidation où l’affectation des wagons aux blocs ainsi que des blocs aux services représentent des décisions qui complexifient grandement la gestion des opérations. Dans cette thèse, les deux processus de consolidation ainsi que l’horaire d’exploitation sont étudiés simultanément. La résolution de ce problème permet d’identifier un plan d’exploitation rentable comprenant les politiques de blocage, le routage et l’horaire des trains, de même que l’habillage ainsi que l’affectation du traffic. Afin de décrire les différentes activités ferroviaires au niveau tactique, nous étendons le réseau physique et construisons une structure de réseau espace-temps comprenant trois couches dans lequel la dimension liée au temps prend en considération les impacts temporels sur les opérations. De plus, les opérations relatives aux trains, blocs et wagons sont décrites par différentes couches. Sur la base de cette structure de réseau, nous modélisons ce problème de planification ferroviaire comme un problème de conception de réseaux de services. Le modèle proposé se formule comme un programme mathématique en variables mixtes. Ce dernie r s’avère très difficile à résoudre en raison de la grande taille des instances traitées et de sa complexité intrinsèque. Trois versions sont étudiées : le modèle simplifié (comprenant des services directs uniquement), le modèle complet (comprenant des services directs et multi-arrêts), ainsi qu’un modèle complet à très grande échelle. Plusieurs heuristiques sont développées afin d’obtenir de bonnes solutions en des temps de calcul raisonnables. Premièrement, un cas particulier avec services directs est analysé. En considérant une cara ctéristique spécifique du problème de conception de réseaux de services directs nous développons un nouvel algorithme de recherche avec tabous. Un voisinage par cycles est privilégié à cet effet. Celui-ci est basé sur la distribution du flot circulant sur les blocs selon les cycles issus du réseau résiduel. Un algorithme basé sur l’ajustement de pente est développé pour le modèle complet, et nous proposons une nouvelle méthode, appelée recherche ellipsoidale, permettant d’améliorer davantage la qualité de la solution. La recherche ellipsoidale combine les bonnes solutions admissibles générées par l’algorithme d’ajustement de pente, et regroupe les caractéristiques des bonnes solutions afin de créer un problème élite qui est résolu de facon exacte à l’aide d’un logiciel commercial. L’heuristique tire donc avantage de la vitesse de convergence de l’algorithme d’ajustement de pente et de la qualité de solution de la recherche ellipsoidale. Les tests numériques illustrent l’efficacité de l’heuristique proposée. En outre, l’algorithme représente une alternative intéressante afin de résoudre le problème simplifié. Enfin, nous étudions le modèle complet à très grande échelle. Une heuristique hybride est développée en intégrant les idées de l’algorithme précédemment décrit et la génération de colonnes. Nous proposons une nouvelle procédure d’ajustement de pente où, par rapport à l’ancienne, seule l’approximation des couts liés aux services est considérée. La nouvelle approche d’ajustement de pente sépare ainsi les décisions associées aux blocs et aux services afin de fournir une décomposition naturelle du problème. Les résultats numériques obtenus montrent que l’algorithme est en mesure d’identifier des solutions de qualité dans un contexte visant la résolution d’instances réelles.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

De nombreux problèmes en transport et en logistique peuvent être formulés comme des modèles de conception de réseau. Ils requièrent généralement de transporter des produits, des passagers ou encore des données dans un réseau afin de satisfaire une certaine demande tout en minimisant les coûts. Dans ce mémoire, nous nous intéressons au problème de conception de réseau avec coûts fixes et capacités. Ce problème consiste à ouvrir un sous-ensemble des liens dans un réseau afin de satisfaire la demande, tout en respectant les contraintes de capacités sur les liens. L'objectif est de minimiser les coûts fixes associés à l'ouverture des liens et les coûts de transport des produits. Nous présentons une méthode exacte pour résoudre ce problème basée sur des techniques utilisées en programmation linéaire en nombres entiers. Notre méthode est une variante de l'algorithme de branch-and-bound, appelée branch-and-price-and-cut, dans laquelle nous exploitons à la fois la génération de colonnes et de coupes pour la résolution d'instances de grande taille, en particulier, celles ayant un grand nombre de produits. En nous comparant à CPLEX, actuellement l'un des meilleurs logiciels d'optimisation mathématique, notre méthode est compétitive sur les instances de taille moyenne et supérieure sur les instances de grande taille ayant un grand nombre de produits, et ce, même si elle n'utilise qu'un seul type d'inégalités valides.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette thèse présente des méthodes de traitement de données de comptage en particulier et des données discrètes en général. Il s'inscrit dans le cadre d'un projet stratégique du CRNSG, nommé CC-Bio, dont l'objectif est d'évaluer l'impact des changements climatiques sur la répartition des espèces animales et végétales. Après une brève introduction aux notions de biogéographie et aux modèles linéaires mixtes généralisés aux chapitres 1 et 2 respectivement, ma thèse s'articulera autour de trois idées majeures. Premièrement, nous introduisons au chapitre 3 une nouvelle forme de distribution dont les composantes ont pour distributions marginales des lois de Poisson ou des lois de Skellam. Cette nouvelle spécification permet d'incorporer de l'information pertinente sur la nature des corrélations entre toutes les composantes. De plus, nous présentons certaines propriétés de ladite distribution. Contrairement à la distribution multidimensionnelle de Poisson qu'elle généralise, celle-ci permet de traiter les variables avec des corrélations positives et/ou négatives. Une simulation permet d'illustrer les méthodes d'estimation dans le cas bidimensionnel. Les résultats obtenus par les méthodes bayésiennes par les chaînes de Markov par Monte Carlo (CMMC) indiquent un biais relatif assez faible de moins de 5% pour les coefficients de régression des moyennes contrairement à ceux du terme de covariance qui semblent un peu plus volatils. Deuxièmement, le chapitre 4 présente une extension de la régression multidimensionnelle de Poisson avec des effets aléatoires ayant une densité gamma. En effet, conscients du fait que les données d'abondance des espèces présentent une forte dispersion, ce qui rendrait fallacieux les estimateurs et écarts types obtenus, nous privilégions une approche basée sur l'intégration par Monte Carlo grâce à l'échantillonnage préférentiel. L'approche demeure la même qu'au chapitre précédent, c'est-à-dire que l'idée est de simuler des variables latentes indépendantes et de se retrouver dans le cadre d'un modèle linéaire mixte généralisé (GLMM) conventionnel avec des effets aléatoires de densité gamma. Même si l'hypothèse d'une connaissance a priori des paramètres de dispersion semble trop forte, une analyse de sensibilité basée sur la qualité de l'ajustement permet de démontrer la robustesse de notre méthode. Troisièmement, dans le dernier chapitre, nous nous intéressons à la définition et à la construction d'une mesure de concordance donc de corrélation pour les données augmentées en zéro par la modélisation de copules gaussiennes. Contrairement au tau de Kendall dont les valeurs se situent dans un intervalle dont les bornes varient selon la fréquence d'observations d'égalité entre les paires, cette mesure a pour avantage de prendre ses valeurs sur (-1;1). Initialement introduite pour modéliser les corrélations entre des variables continues, son extension au cas discret implique certaines restrictions. En effet, la nouvelle mesure pourrait être interprétée comme la corrélation entre les variables aléatoires continues dont la discrétisation constitue nos observations discrètes non négatives. Deux méthodes d'estimation des modèles augmentés en zéro seront présentées dans les contextes fréquentiste et bayésien basées respectivement sur le maximum de vraisemblance et l'intégration de Gauss-Hermite. Enfin, une étude de simulation permet de montrer la robustesse et les limites de notre approche.