973 resultados para nonlinear mixed integer programming
Resumo:
OBJECTIVE: To compare the pharmacokinetic and pharmacodynamic characteristics of angiotensin II receptor antagonists as a therapeutic class. DESIGN: Population pharmacokinetic-pharmacodynamic modelling study. METHODS: The data of 14 phase I studies with 10 different drugs were analysed. A common population pharmacokinetic model (two compartments, mixed zero- and first-order absorption, two metabolite compartments) was applied to the 2685 drug and 900 metabolite concentration measurements. A standard nonlinear mixed effect modelling approach was used to estimate the drug-specific parameters and their variabilities. Similarly, a pharmacodynamic model was applied to the 7360 effect measurements, i.e. the decrease of peak blood pressure response to intravenous angiotensin challenge recorded by finger photoplethysmography. The concentration of drug and metabolite in an effect compartment was assumed to translate into receptor blockade [maximum effect (Emax) model with first-order link]. RESULTS: A general pharmacokinetic-pharmacodynamic (PK-PD) model for angiotensin antagonism in healthy individuals was successfully built up for the 10 drugs studied. Representatives of this class share different pharmacokinetic and pharmacodynamic profiles. Their effects on blood pressure are dose-dependent, but the time course of the effect varies between the drugs. CONCLUSIONS: The characterisation of PK-PD relationships for these drugs gives the opportunity to optimise therapeutic regimens and to suggest dosage adjustments in specific conditions. Such a model can be used to further refine the use of this class of drugs.
Resumo:
Imatinib has revolutionised the treatment of chronic myeloid leukaemia (CML) and gastrointestinal stromal tumours (GIST). Using a nonlinear mixed effects population model, individual estimates of pharmacokinetic parameters were derived and used to estimate imatinib exposure (area under the curve, AUC) in 58 patients. Plasma-free concentration was deduced from a model incorporating plasma levels of alpha(1)-acid glycoprotein. Associations between AUC (or clearance) and response or incidence of side effects were explored by logistic regression analysis. Influence of KIT genotype was also assessed in GIST patients. Both total (in GIST) and free drug exposure (in CML and GIST) correlated with the occurrence and number of side effects (e.g. odds ratio 2.7+/-0.6 for a two-fold free AUC increase in GIST; P<0.001). Higher free AUC also predicted a higher probability of therapeutic response in GIST (odds ratio 2.6+/-1.1; P=0.026) when taking into account tumour KIT genotype (strongest association in patients harbouring exon 9 mutation or wild-type KIT, known to decrease tumour sensitivity towards imatinib). In CML, no straightforward concentration-response relationships were obtained. Our findings represent additional arguments to further evaluate the usefulness of individualizing imatinib prescription based on a therapeutic drug monitoring programme, possibly associated with target genotype profiling of patients.
Resumo:
RESUME : Objectif: Le glioblastome multiforme (GBM) est la tumeur cérébrale maligne la plus agressive qui conduit au décès de la majorité des patients moins d'une année après le diagnostic. La plupart des agents chimiothérapeutiques actuellement disponibles ne traversent pas la barrière hémato¬encéphalique et ne peuvent par conséquent pas être utilisés pour ce type de tumeur. Le Temozolomide (TMZ) est un nouvel agent alkylant récemment développé pour le traitement des gliomes malins. A ce jour, très peu d'informations sont disponibles sur la pénétration intra-cérébrale de cet agent. Au cours d'une étude pilote de phase II menée auprès de 64 patients atteints de GBM, l'administration précoce de TMZ combinée à une radiothérapie standard (RT) afin d'intervenir au plus tôt dans l'évolution de la maladie, a permis de prolonger la survie de ces patients, résultat qui pu être confirmé par la suite lors de l'étude randomisée de phase III. L'objectif de cette étude a été de déterminer les paramètres pharmacocinétique du TMZ dans le plasma et le liquide céphalo-rachidien (LCR), d'évaluer l'influence de certains facteurs individuels (âge, sexe, surface corporelle, fonction rénale/hépatique, co-médications, RT concomitante) sur ces différents paramètres, et enfin d'explorer la relation existant entre l'exposition au TMZ et certains marqueurs cliniques d'efficacité et de toxicité. Matériel et Méthode: Les concentrations de TMZ ont été mesurées par chromatographie liquide à haute performance (HPLC) dans le plasma et le LCR de 35 patients atteints de GBM nouvellement diagnostiqués (étude pilote) ou de gliomes malins en récidive (étude récidive). L'analyse pharmacocinétique de population a été réalisée à l'aide du programme NONMEM. L'exposition systémique et cérébrale, définie par les AUC (Area Under the time-concentration Curve) dans le plasma et le LCR, a été estimée pour chaque patient et corrélée à la toxicité, la survie ainsi que la survie sans progression tumorale. Résultats: Un modèle à 1 compartiment avec une cinétique d'absorption et de transfert Kplasma -> LCR de ordre a été retenu afin de décrire le profil pharmacocinétique du TMZ. Les valeurs moyennes de population ont été de 10 L/h pour la clairance, de 30.3 L pour le volume de distribution, de 2.1 h pour la 1/2 vie d'élimination, de 5.78 hE-1 pour la constante d'absorption, de 7.2 10E4 hE-1 pour Kplasma->LCR et de 0.76 hE-1 pour KLCR plasma. La surface corporelle a montré une influence significative sur la clairance et le volume de distribution, alors que le sexe influence la clairance uniquement. L'AUC mesurée dans le LCR représente ~20% de celle du plasma et une augmentation de 15% de Kplasma->LCR a été observée lors du traitement concomitant de radiochimiothérapie. Conclusions: Cette étude est la première analyse pharmacocinétique effectuée chez l'homme permettant de quantifier la pénétration intra-cérébrale du TMZ. Le rapport AUC LCR/AUC Plasma a été de 20%. Le degré d'exposition systémique et cérébral au TMZ ne semble pas être un meilleur facteur prédictif de la survie ou de la tolérance au produit que ne l'est la dose cumulée seule. ABSTRACT Purpose: Scarce information is available on the brain penetration of temozolomide (TMZ), although this novel methylating agent is mainly used for the treatment of ma¬lignant brain tumors. The purpose was to assess TNIZ phar¬macokinetics in plasma and cerebrospinal fluid (CSF) along with its inter-individual variability, to characterize covari¬ates and to explore relationships between systemic or cere¬bral drug exposure and clinical outcomes. Experimental Design: TMZ levels were measured by high-performance liquid chromatography in plasma and CSF samples from 35 patients with newly diagnosed or recurrent malignant gliomas. The population pharmacoki¬netic analysis was performed with nonlinear mixed-effect modeling software. Drug exposure, defined by the area un¬der the concentration-time curve (AUC) in plasma and CSF, was estimated for each patient and correlated with toxicity, survival, and progression-free survival. Results: A three-compartment model with first-order absorption and transfer rates between plasma and CSF described the data appropriately. Oral clearance was 10 liter/h; volume of distribution (VD), 30.3 liters; absorption constant rate, 5.8 hE-1; elimination half-time, 2.1 h; transfer rate from plasma to CSF (Kplasma->CSF), 7.2 x 10E-4hE-1 and the backwards rate, 0.76hE-1. Body surface area signifi¬cantly influenced both clearance and VD, and clearance was sex dependent. The AU CSF corresponded to 20% of the AUCplasma. A trend toward an increased K plasma->CSF of 15% was observed in case of concomitant radiochemo-therapy. No significant correlations between AUC in plasma or CSF and toxicity, survival, or progression-free survival were apparent after deduction of dose-effect. Conclusions: This is the first human pharmacokinetic study on TMZ to quantify CSF penetration. The AUC CSF/ AUC plasma ratio was 20%. Systemic or cerebral exposures are not better predictors than the cumulative dose alone for both efficacy and safety.
Resumo:
Valganciclovir (VGC) is an oral prodrug of ganciclovir (GCV) recently introduced for prophylaxis and treatment of cytomegalovirus infection. Optimal concentration exposure for effective and safe VGC therapy would require either reproducible VGC absorption and GCV disposition or dosage adjustment based on therapeutic drug monitoring (TDM). We examined GCV population pharmacokinetics in solid organ transplant recipients receiving oral VGC, including the influence of clinical factors, the magnitude of variability, and its impact on efficacy and tolerability. Nonlinear mixed effect model (NONMEM) analysis was performed on plasma samples from 65 transplant recipients under VGC prophylaxis or treatment. A two-compartment model with first-order absorption appropriately described the data. Systemic clearance was markedly influenced by the glomerular filtration rate (GFR), patient gender, and graft type (clearance/GFR = 1.7 in kidney, 0.9 in heart, and 1.2 in lung and liver recipients) with interpatient and interoccasion variabilities of 26 and 12%, respectively. Body weight and sex influenced central volume of distribution (V(1) = 0.34 liter/kg in males and 0.27 liter/kg in females [20% interpatient variability]). No significant drug interaction was detected. The good prophylactic efficacy and tolerability of VGC precluded the demonstration of any relationship with GCV concentrations. In conclusion, this analysis highlights the importance of thorough adjustment of VGC dosage to renal function and body weight. Considering the good predictability and reproducibility of the GCV profile after treatment with oral VGC, routine TDM does not appear to be clinically indicated in solid-organ transplant recipients. However, GCV plasma measurement may still be helpful in specific clinical situations.
Resumo:
Annualising work hours (AH) is a means of achievement flexibility in the use of human resources to face the seasonal nature of demand. In Corominas et al. (1) two MILP models are used to solve the problem of planning staff working hours with annual horizon. The costs due to overtime and to the employment of temporary workers are minimised, and the distribution of working time over the course of the year for each worker and the distribution of working time provided by temporary workers are regularised.In the aforementioned paper, the following is assumed: (i) the holiday weeks are fixed a priori and (ii) the workers are from different categories who are able to perform specific type of task have se same efficiency; moreover, the values of the binary variables (and others) in the second model are fixed to those in the first model (thus, in the second model these will intervene as constants and not as variables, resulting in an LP model).In the present paper, these assumptions are relaxed and a more general problem is solved. The computational experiment leads to the conclusion that MILP is a technique suited to dealing with the problem.
Resumo:
Didanosine (ddI) is a component of highly active antiretroviral therapy drug combinations, used especially in resource-limited settings and in zidovudine-resistant patients. The population pharmacokinetics of ddI was evaluated in 48 healthy volunteers enrolled in two bioequivalence studies. These data, along with a set of co-variates, were the subject of a nonlinear mixed-effect modeling analysis using the NONMEM program. A two-compartment model with first order absorption (ADVAN3 TRANS3) was fitted to the serum ddI concentration data. Final pharmacokinetic parameters, expressed as functions of the co-variates gender and creatinine clearance (CL CR), were: oral clearance (CL = 55.1 + 240 x CL CR + 16.6 L/h for males and CL = 55.1 + 240 x CL CR for females), central volume (V2 = 9.8 L), intercompartmental clearance (Q = 40.9 L/h), peripheral volume (V3 = 62.7 + 22.9 L for males and V3 = 62.7 L for females), absorption rate constant (Ka = 1.51/h), and dissolution time of the tablet (D = 0.43 h). The intraindividual (residual) variability expressed as coefficient of variation was 13.0%, whereas the interindividual variability of CL, Q, V3, Ka, and D was 20.1, 75.8, 20.6, 18.9, and 38.2%, respectively. The relatively high (>30%) interindividual variability for some of these parameters, observed under the controlled experimental settings of bioequivalence trials in healthy volunteers, may result from genetic variability of the processes involved in ddI absorption and disposition.
Resumo:
Transportation plays a major role in the gross domestic product of various nations. There are, however, many obstacles hindering the transportation sector. Cost-efficiency along with proper delivery times, high frequency and reliability are not a straightforward task. Furthermore, environmental friendliness has increased the importance of the whole transportation sector. This development will change roles inside the transportation sector. Even now, but especially in the future, decisions regarding the transportation sector will be partly based on emission levels and other externalities originating from transportation in addition to pure transportation costs. There are different factors, which could have an impact on the transportation sector. IMO’s sulphur regulation is estimated to increase the costs of short sea shipping in the Baltic Sea. Price development of energy could change the roles of different transport modes. Higher awareness of the environmental impacts originating from transportation could also have an impact on the price level of more polluting transport modes. According to earlier research, increased inland transportation, modal shift and slowsteaming can be possible results of these changes in the transportation sector. Possible changes in the transportation sector and ways to settle potential obstacles are studied in this dissertation. Furthermore, means to improve cost-efficiency and to decrease environmental impacts originating from transportation are researched. Hypothetical Finnish dry port network and Rail Baltica transport corridor are studied in this dissertation. Benefits and disadvantages are studied with different methodologies. These include gravitational models, which were optimized with linear integer programming, discrete-event and system dynamics simulation, an interview study and a case study. Geographical focus is on the Baltic Sea Region, but the results can be adapted to other geographical locations with discretion. Results indicate that the dry port concept has benefits, but optimization regarding the location and the amount of dry ports plays an important role. In addition, the utilization of dry ports for freight transportation should be carefully operated, since only a certain amount of total freight volume can be cost-efficiently transported through dry ports. If dry ports are created and located without proper planning, they could actually increase transportation costs and delivery times of the whole transportation system. With an optimized dry port network, transportation costs can be lowered in Finland with three to five dry ports. Environmental impacts can be lowered with up to nine dry ports. If more dry ports are added to the system, the benefits become very minor, i.e. payback time of investments becomes extremely long. Furthermore, dry port network could support major transport corridors such as Rail Baltica. Based on an analysis of statistics and interview study, there could be enough freight volume available for Rail Baltica, especially, if North-West Russia is part of the Northern end of the corridor. Transit traffic to and from Russia (especially through the Baltic States) plays a large role. It could be possible to increase transit traffic through Finland by connecting the potential Finnish dry port network and the studied transport corridor. Additionally, sulphur emission regulation is assumed to increase the attractiveness of Rail Baltica in the year 2015. Part of the transit traffic could be rerouted along Rail Baltica instead of the Baltic Sea, since the price level of sea transport could increase due to the sulphur regulation. Both, the hypothetical Finnish dry port network and Rail Baltica transport corridor could benefit each other. The dry port network could gain more market share from Russia, but also from Central Europe, which is the other end of Rail Baltica. In addition, further Eastern countries could also be connected to achieve higher potential freight volume by rail.
Resumo:
Hub Location Problems play vital economic roles in transportation and telecommunication networks where goods or people must be efficiently transferred from an origin to a destination point whilst direct origin-destination links are impractical. This work investigates the single allocation hub location problem, and proposes a genetic algorithm (GA) approach for it. The effectiveness of using a single-objective criterion measure for the problem is first explored. Next, a multi-objective GA employing various fitness evaluation strategies such as Pareto ranking, sum of ranks, and weighted sum strategies is presented. The effectiveness of the multi-objective GA is shown by comparison with an Integer Programming strategy, the only other multi-objective approach found in the literature for this problem. Lastly, two new crossover operators are proposed and an empirical study is done using small to large problem instances of the Civil Aeronautics Board (CAB) and Australian Post (AP) data sets.
Resumo:
Nous présentons une nouvelle approche pour formuler et calculer le temps de séparation des événements utilisé dans l’analyse et la vérification de différents systèmes cycliques et acycliques sous des contraintes linéaires-min-max avec des composants ayant des délais finis et infinis. Notre approche consiste à formuler le problème sous la forme d’un programme entier mixte, puis à utiliser le solveur Cplex pour avoir les temps de séparation entre les événements. Afin de démontrer l’utilité en pratique de notre approche, nous l’avons utilisée pour la vérification et l’analyse d’une puce asynchrone d’Intel de calcul d’équations différentielles. Comparée aux travaux précédents, notre approche est basée sur une formulation exacte et elle permet non seulement de calculer le maximum de séparation, mais aussi de trouver un ordonnancement cyclique et de calculer les temps de séparation correspondant aux différentes périodes possibles de cet ordonnancement.
Resumo:
Nous étudions la gestion de centres d'appels multi-compétences, ayant plusieurs types d'appels et groupes d'agents. Un centre d'appels est un système de files d'attente très complexe, où il faut généralement utiliser un simulateur pour évaluer ses performances. Tout d'abord, nous développons un simulateur de centres d'appels basé sur la simulation d'une chaîne de Markov en temps continu (CMTC), qui est plus rapide que la simulation conventionnelle par événements discrets. À l'aide d'une méthode d'uniformisation de la CMTC, le simulateur simule la chaîne de Markov en temps discret imbriquée de la CMTC. Nous proposons des stratégies pour utiliser efficacement ce simulateur dans l'optimisation de l'affectation des agents. En particulier, nous étudions l'utilisation des variables aléatoires communes. Deuxièmement, nous optimisons les horaires des agents sur plusieurs périodes en proposant un algorithme basé sur des coupes de sous-gradients et la simulation. Ce problème est généralement trop grand pour être optimisé par la programmation en nombres entiers. Alors, nous relaxons l'intégralité des variables et nous proposons des méthodes pour arrondir les solutions. Nous présentons une recherche locale pour améliorer la solution finale. Ensuite, nous étudions l'optimisation du routage des appels aux agents. Nous proposons une nouvelle politique de routage basé sur des poids, les temps d'attente des appels, et les temps d'inoccupation des agents ou le nombre d'agents libres. Nous développons un algorithme génétique modifié pour optimiser les paramètres de routage. Au lieu d'effectuer des mutations ou des croisements, cet algorithme optimise les paramètres des lois de probabilité qui génèrent la population de solutions. Par la suite, nous développons un algorithme d'affectation des agents basé sur l'agrégation, la théorie des files d'attente et la probabilité de délai. Cet algorithme heuristique est rapide, car il n'emploie pas la simulation. La contrainte sur le niveau de service est convertie en une contrainte sur la probabilité de délai. Par après, nous proposons une variante d'un modèle de CMTC basé sur le temps d'attente du client à la tête de la file. Et finalement, nous présentons une extension d'un algorithme de coupe pour l'optimisation stochastique avec recours de l'affectation des agents dans un centre d'appels multi-compétences.
Resumo:
Les problèmes de conception de réseaux ont reçu un intérêt particulier et ont été largement étudiés de par leurs nombreuses applications dans différents domaines, tels que les transports et les télécommunications. Nous nous intéressons dans ce mémoire au problème de conception de réseaux avec coûts d’ajout de capacité. Il s’agit d’installer un ensemble d’équipements sur un réseau en vue de satisfaire la demande, tout en respectant les contraintes de capacité, chaque arc pouvant admettre plusieurs équipements. L’objectif est de minimiser les coûts variables de transport des produits et les coûts fixes d’installation ou d’augmentation de capacité des équipements. La méthode que nous envisageons pour résoudre ce problème est basée sur les techniques utilisées en programmation linéaire en nombres entiers, notamment celles de génération de colonnes et de coupes. Ces méthodes sont introduites dans un algorithme général de branch-and-bound basé sur la relaxation linéaire. Nous avons testé notre méthode sur quatre groupes d’instances de tailles différentes, et nous l’avons comparée à CPLEX, qui constitue un des meilleurs solveurs permettant de résoudre des problèmes d’optimisation, ainsi qu’à une méthode existante dans la littérature combinant des méthodes exactes et heuristiques. Notre méthode a été plus performante que ces deux méthodes, notamment pour les instances de très grandes tailles.
Resumo:
La gestion des ressources, équipements, équipes de travail, et autres, devrait être prise en compte lors de la conception de tout plan réalisable pour le problème de conception de réseaux de services. Cependant, les travaux de recherche portant sur la gestion des ressources et la conception de réseaux de services restent limités. La présente thèse a pour objectif de combler cette lacune en faisant l’examen de problèmes de conception de réseaux de services prenant en compte la gestion des ressources. Pour ce faire, cette thèse se décline en trois études portant sur la conception de réseaux. La première étude considère le problème de capacitated multi-commodity fixed cost network design with design-balance constraints(DBCMND). La structure multi-produits avec capacité sur les arcs du DBCMND, de même que ses contraintes design-balance, font qu’il apparaît comme sous-problème dans de nombreux problèmes reliés à la conception de réseaux de services, d’où l’intérêt d’étudier le DBCMND dans le contexte de cette thèse. Nous proposons une nouvelle approche pour résoudre ce problème combinant la recherche tabou, la recomposition de chemin, et une procédure d’intensification de la recherche dans une région particulière de l’espace de solutions. Dans un premier temps la recherche tabou identifie de bonnes solutions réalisables. Ensuite la recomposition de chemin est utilisée pour augmenter le nombre de solutions réalisables. Les solutions trouvées par ces deux méta-heuristiques permettent d’identifier un sous-ensemble d’arcs qui ont de bonnes chances d’avoir un statut ouvert ou fermé dans une solution optimale. Le statut de ces arcs est alors fixé selon la valeur qui prédomine dans les solutions trouvées préalablement. Enfin, nous utilisons la puissance d’un solveur de programmation mixte en nombres entiers pour intensifier la recherche sur le problème restreint par le statut fixé ouvert/fermé de certains arcs. Les tests montrent que cette approche est capable de trouver de bonnes solutions aux problèmes de grandes tailles dans des temps raisonnables. Cette recherche est publiée dans la revue scientifique Journal of heuristics. La deuxième étude introduit la gestion des ressources au niveau de la conception de réseaux de services en prenant en compte explicitement le nombre fini de véhicules utilisés à chaque terminal pour le transport de produits. Une approche de solution faisant appel au slope-scaling, la génération de colonnes et des heuristiques basées sur une formulation en cycles est ainsi proposée. La génération de colonnes résout une relaxation linéaire du problème de conception de réseaux, générant des colonnes qui sont ensuite utilisées par le slope-scaling. Le slope-scaling résout une approximation linéaire du problème de conception de réseaux, d’où l’utilisation d’une heuristique pour convertir les solutions obtenues par le slope-scaling en solutions réalisables pour le problème original. L’algorithme se termine avec une procédure de perturbation qui améliore les solutions réalisables. Les tests montrent que l’algorithme proposé est capable de trouver de bonnes solutions au problème de conception de réseaux de services avec un nombre fixe des ressources à chaque terminal. Les résultats de cette recherche seront publiés dans la revue scientifique Transportation Science. La troisième étude élargie nos considérations sur la gestion des ressources en prenant en compte l’achat ou la location de nouvelles ressources de même que le repositionnement de ressources existantes. Nous faisons les hypothèses suivantes: une unité de ressource est nécessaire pour faire fonctionner un service, chaque ressource doit retourner à son terminal d’origine, il existe un nombre fixe de ressources à chaque terminal, et la longueur du circuit des ressources est limitée. Nous considérons les alternatives suivantes dans la gestion des ressources: 1) repositionnement de ressources entre les terminaux pour tenir compte des changements de la demande, 2) achat et/ou location de nouvelles ressources et leur distribution à différents terminaux, 3) externalisation de certains services. Nous présentons une formulation intégrée combinant les décisions reliées à la gestion des ressources avec les décisions reliées à la conception des réseaux de services. Nous présentons également une méthode de résolution matheuristique combinant le slope-scaling et la génération de colonnes. Nous discutons des performances de cette méthode de résolution, et nous faisons une analyse de l’impact de différentes décisions de gestion des ressources dans le contexte de la conception de réseaux de services. Cette étude sera présentée au XII International Symposium On Locational Decision, en conjonction avec XXI Meeting of EURO Working Group on Locational Analysis, Naples/Capri (Italy), 2014. En résumé, trois études différentes sont considérées dans la présente thèse. La première porte sur une nouvelle méthode de solution pour le "capacitated multi-commodity fixed cost network design with design-balance constraints". Nous y proposons une matheuristique comprenant la recherche tabou, la recomposition de chemin, et l’optimisation exacte. Dans la deuxième étude, nous présentons un nouveau modèle de conception de réseaux de services prenant en compte un nombre fini de ressources à chaque terminal. Nous y proposons une matheuristique avancée basée sur la formulation en cycles comprenant le slope-scaling, la génération de colonnes, des heuristiques et l’optimisation exacte. Enfin, nous étudions l’allocation des ressources dans la conception de réseaux de services en introduisant des formulations qui modèlent le repositionnement, l’acquisition et la location de ressources, et l’externalisation de certains services. À cet égard, un cadre de solution slope-scaling développé à partir d’une formulation en cycles est proposé. Ce dernier comporte la génération de colonnes et une heuristique. Les méthodes proposées dans ces trois études ont montré leur capacité à trouver de bonnes solutions.
Resumo:
Dans ce mémoire, nous abordons le problème de l’ensemble dominant connexe de cardinalité minimale. Nous nous penchons, en particulier, sur le développement de méthodes pour sa résolution basées sur la programmation par contraintes et la programmation en nombres entiers. Nous présentons, en l’occurrence, une heuristique et quelques méthodes exactes pouvant être utilisées comme heuristiques si on limite leur temps d’exécution. Nous décrivons notamment un algorithme basé sur l’approche de décomposition de Benders, un autre combinant cette dernière avec une stratégie d’investigation itérative, une variante de celle-ci utilisant la programmation par contraintes, et enfin une méthode utilisant uniquement la programmation par contraintes. Des résultats expérimentaux montrent que ces méthodes sont efficaces puisqu’elles améliorent les méthodes connues dans la littérature. En particulier, la méthode de décomposition de Benders avec une stratégie d’investigation itérative fournit les résultats les plus performants.
Resumo:
In dieser Arbeit wurde ein gemischt-ganzzahliges lineares Einsatzoptimierungsmodell für Kraftwerke und Speicher aufgebaut und für die Untersuchung der Energieversorgung Deutschlands im Jahre 2050 gemäß den Leitstudie-Szenarien 2050 A und 2050 C ([Nitsch und Andere, 2012]) verwendet, in denen erneuerbare Energien einen Anteil von über 85 % an der Stromerzeugung haben und die Wind- und Solarenergie starke Schwankungen der durch steuerbare Kraftwerke und Speicher zu deckenden residualen Stromnachfrage (Residuallast) verursachen. In Szenario 2050 A sind 67 TWh Wasserstoff, die elektrolytisch aus erneuerbarem Strom zu erzeugen sind, für den Verkehr vorgesehen. In Szenario 2050 C ist kein Wasserstoff für den Verkehr vorgesehen und die effizientere Elektromobilität hat einen Anteil von 100% am Individualverkehr. Daher wird weniger erneuerbarer Strom zur Erreichung desselben erneuerbaren Anteils im Verkehrssektor benötigt. Da desweiteren Elektrofahrzeuge Lastmanagementpotentiale bieten, weisen die Residuallasten der Szenarien eine unterschiedliche zeitliche Charakteristik und Jahressumme auf. Der Schwerpunkt der Betrachtung lag auf der Ermittlung der Auslastung und Fahrweise des in den Szenarien unterstellten ’Kraftwerks’-parks bestehend aus Kraftwerken zur reinen Stromerzeugung, Kraft-Wärme-Kopplungskraftwerken, die mit Wärmespeichern, elektrischen Heizstäben und Gas-Backupkesseln ausgestattet sind, Stromspeichern und Wärmepumpen, die durch Wärmespeicher zum Lastmanagment eingesetzt werden können. Der Fahrplan dieser Komponenten wurde auf minimale variable Gesamtkosten der Strom- und Wärmeerzeugung über einen Planungshorizont von jeweils vier Tagen hin optimiert. Das Optimierungsproblem wurde mit dem linearen Branch-and-Cut-Solver der software CPLEX gelöst. Mittels sogenannter rollierender Planung wurde durch Zusammensetzen der Planungsergebnisse für überlappende Planungsperioden der Kraftwerks- und Speichereinsatz für die kompletten Szenariojahre erhalten. Es wurde gezeigt, dass der KWK-Anteil an der Wärmelastdeckung gering ist. Dies wurde begründet durch die zeitliche Struktur der Stromresiduallast, die wärmeseitige Dimensionierung der Anlagen und die Tatsache, dass nur eine kurzfristige Speicherung von Wärme vorgesehen war. Die wärmeseitige Dimensionierung der KWK stellte eine Begrenzung des Deckungsanteils dar, da im Winter bei hoher Stromresiduallast nur wenig freie Leistung zur Beladung der Speicher zur Verfügung stand. In den Berechnungen für das Szenario 2050 A und C lag der mittlere Deckungsanteil der KWK an der Wärmenachfrage von ca. 100 TWh_th bei 40 bzw. 60 %, obwohl die Auslegung der KWK einen theoretischen Anteil von über 97 % an der Wärmelastdeckung erlaubt hätte, gäbe es die Beschränkungen durch die Stromseite nicht. Desweiteren wurde die CO2-Vermeidungswirkung der KWK-Wärmespeicher und des Lastmanagements mit Wärmepumpen untersucht. In Szenario 2050 A ergab sich keine signifikante CO2-Vermeidungswirkung der KWK-Wärmespeicher, in Szenario 2050 C hingegen ergab sich eine geringe aber signifikante CO2-Einsparung in Höhe von 1,6 % der Gesamtemissionen der Stromerzeugung und KWK-gebundenen Wärmeversorgung. Das Lastmanagement mit Wärmepumpen vermied Emissionen von 110 Tausend Tonnen CO2 (0,4 % der Gesamtemissionen) in Szenario A und 213 Tausend Tonnen in Szenario C (0,8 % der Gesamtemissionen). Es wurden darüber hinaus Betrachtungen zur Konkurrenz zwischen solarthermischer Nahwärme und KWK bei Einspeisung in dieselben Wärmenetze vorgenommen. Eine weitere Einschränkung der KWK-Erzeugung durch den Einspeisevorrang der Solarthermie wurde festgestellt. Ferner wurde eine untere Grenze von 6,5 bzw. 8,8 TWh_th für die in den Szenarien mindestens benötigte Wasserstoff-Speicherkapazität ermittelt. Die Ergebnisse dieser Arbeit legen nahe, das technisch-ökonomische Potential von Langzeitwärmespeichern für eine bessere Integration von KWK ins System zu ermitteln bzw. generell nach geeigneteren Wärmesektorszenarien zu suchen, da deutlich wurde, dass für die öffentliche Wärmeversorgung die KWK in Kombination mit Kurzzeitwärmespeicherung, Gaskesseln und elektrischen Heizern keine sehr effektive CO2 -Reduktion in den Szenarien erreicht. Es sollte dabei z.B. untersucht werden, ob ein multivalentes System aus KWK, Wärmespeichern und Wärmepumpen eine ökonomisch darstellbare Alternative sein könnte und im Anschluss eine Betrachtung der optimalen Anteile von KWK, Wärmepumpen und Solarthermie im Wärmemarkt vorgenommen werden.
Resumo:
Exam questions and solutions in PDF