469 resultados para optimality


Relevância:

10.00% 10.00%

Publicador:

Resumo:

2000 Mathematics Subject Classification: 90C46, 90C26, 26B25, 49J52.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

MSC 2010: 49K05, 26A33

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Uniqueness of a solution is investigated for some inverse source problems arising in linear parabolic equations. We prove new uniqueness results formulated in Theorems 3.1 and 3.2. We also show optimality of the conditions under which uniqueness holds by explicitly constructing counterexamples, that is by constructing more than one solution in the case when the conditions for uniqueness are violated.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this study, the authors investigate the outage-optimal relay strategy under outdated channel state information (CSI) in a decode-and-forward cooperative communication system. They first confirm mathematically that minimising the outage probability under outdated CSI is equivalent to minimising the conditional outage probability on the outdated CSI of all the decodable relays' links. They then propose a multiple-relay strategy with optimised transmitting power allocation (MRS-OTPA) that minimises the conditional outage probability. It is shown that this MRS is a generalised relay approach to achieve the outage optimality under outdated CSI. To reduce the complexity, they also propose a MRS with equal transmitting power allocation (MRS-ETPA) that achieves near-optimal outage performance. It is proved that full spatial diversity, which has been achieved under ideal CSI, can still be achieved under outdated CSI through MRS-OTPA and MRS-ETPA. Finally, the outage performance and diversity order of MRS-OTPA and MRS-ETPA are evaluated by simulation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Return guarantee constitutes a key ingredient of classical life insurance premium calculation. In the current low interest rate environment insurers face increasingly strong financial incentives to reduce guaranteed returns embedded in life insurance contracts. However, return guarantee lowering efforts are restrained by associated demand effects, since a higher guaranteed return makes the net price of the insurance cover lower. This tradeoff between possibly higher future insurance obligations and the possibility of a larger demand for life insurance products can theoretically also be considered when determining optimal guaranteed returns. In this paper, optimality of return guarantee levels is analyzed from a solvency point of view. Availability and some other properties of optimal solutions for guaranteed returns are explored and compared in a simple model for two measures of solvency risk (company-level and contract-level VaR). The paper concludes that a solvency risk minimizing optimal guaranteed return may theoretically exist, although its practical availability can be impeded by economic and regulatory constraints.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The span of control is the most discussed single concept in classical and modern management theory. In specifying conditions for organizational effectiveness, the span of control has generally been regarded as a critical factor. Existing research work has focused mainly on qualitative methods to analyze this concept, for example heuristic rules based on experiences and/or intuition. This research takes a quantitative approach to this problem and formulates it as a binary integer model, which is used as a tool to study the organizational design issue. This model considers a range of requirements affecting management and supervision of a given set of jobs in a company. These decision variables include allocation of jobs to workers, considering complexity and compatibility of each job with respect to workers, and the requirement of management for planning, execution, training, and control activities in a hierarchical organization. The objective of the model is minimal operations cost, which is the sum of supervision costs at each level of the hierarchy, and the costs of workers assigned to jobs. The model is intended for application in the make-to-order industries as a design tool. It could also be applied to make-to-stock companies as an evaluation tool, to assess the optimality of their current organizational structure. Extensive experiments were conducted to validate the model, to study its behavior, and to evaluate the impact of changing parameters with practical problems. This research proposes a meta-heuristic approach to solving large-size problems, based on the concept of greedy algorithms and the Meta-RaPS algorithm. The proposed heuristic was evaluated with two measures of performance: solution quality and computational speed. The quality is assessed by comparing the obtained objective function value to the one achieved by the optimal solution. The computational efficiency is assessed by comparing the computer time used by the proposed heuristic to the time taken by a commercial software system. Test results show the proposed heuristic procedure generates good solutions in a time-efficient manner.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This research aims at a study of the hybrid flow shop problem which has parallel batch-processing machines in one stage and discrete-processing machines in other stages to process jobs of arbitrary sizes. The objective is to minimize the makespan for a set of jobs. The problem is denoted as: FF: batch1,sj:Cmax. The problem is formulated as a mixed-integer linear program. The commercial solver, AMPL/CPLEX, is used to solve problem instances to their optimality. Experimental results show that AMPL/CPLEX requires considerable time to find the optimal solution for even a small size problem, i.e., a 6-job instance requires 2 hours in average. A bottleneck-first-decomposition heuristic (BFD) is proposed in this study to overcome the computational (time) problem encountered while using the commercial solver. The proposed BFD heuristic is inspired by the shifting bottleneck heuristic. It decomposes the entire problem into three sub-problems, and schedules the sub-problems one by one. The proposed BFD heuristic consists of four major steps: formulating sub-problems, prioritizing sub-problems, solving sub-problems and re-scheduling. For solving the sub-problems, two heuristic algorithms are proposed; one for scheduling a hybrid flow shop with discrete processing machines, and the other for scheduling parallel batching machines (single stage). Both consider job arrival and delivery times. An experiment design is conducted to evaluate the effectiveness of the proposed BFD, which is further evaluated against a set of common heuristics including a randomized greedy heuristic and five dispatching rules. The results show that the proposed BFD heuristic outperforms all these algorithms. To evaluate the quality of the heuristic solution, a procedure is developed to calculate a lower bound of makespan for the problem under study. The lower bound obtained is tighter than other bounds developed for related problems in literature. A meta-search approach based on the Genetic Algorithm concept is developed to evaluate the significance of further improving the solution obtained from the proposed BFD heuristic. The experiment indicates that it reduces the makespan by 1.93 % in average within a negligible time when problem size is less than 50 jobs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Modern electric machine drives, particularly three phase permanent magnet machine drive systems represent an indispensable part of high power density products. Such products include; hybrid electric vehicles, large propulsion systems, and automation products. Reliability and cost of these products are directly related to the reliability and cost of these systems. The compatibility of the electric machine and its drive system for optimal cost and operation has been a large challenge in industrial applications. The main objective of this dissertation is to find a design and control scheme for the best compromise between the reliability and optimality of the electric machine-drive system. The effort presented here is motivated by the need to find new techniques to connect the design and control of electric machines and drive systems. ^ A highly accurate and computationally efficient modeling process was developed to monitor the magnetic, thermal, and electrical aspects of the electric machine in its operational environments. The modeling process was also utilized in the design process in form finite element based optimization process. It was also used in hardware in the loop finite element based optimization process. The modeling process was later employed in the design of a very accurate and highly efficient physics-based customized observers that are required for the fault diagnosis as well the sensorless rotor position estimation. Two test setups with different ratings and topologies were numerically and experimentally tested to verify the effectiveness of the proposed techniques. ^ The modeling process was also employed in the real-time demagnetization control of the machine. Various real-time scenarios were successfully verified. It was shown that this process gives the potential to optimally redefine the assumptions in sizing the permanent magnets of the machine and DC bus voltage of the drive for the worst operating conditions. ^ The mathematical development and stability criteria of the physics-based modeling of the machine, design optimization, and the physics-based fault diagnosis and the physics-based sensorless technique are described in detail. ^ To investigate the performance of the developed design test-bed, software and hardware setups were constructed first. Several topologies of the permanent magnet machine were optimized inside the optimization test-bed. To investigate the performance of the developed sensorless control, a test-bed including a 0.25 (kW) surface mounted permanent magnet synchronous machine example was created. The verification of the proposed technique in a range from medium to very low speed, effectively show the intelligent design capability of the proposed system. Additionally, to investigate the performance of the developed fault diagnosis system, a test-bed including a 0.8 (kW) surface mounted permanent magnet synchronous machine example with trapezoidal back electromotive force was created. The results verify the use of the proposed technique under dynamic eccentricity, DC bus voltage variations, and harmonic loading condition make the system an ideal case for propulsion systems.^

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Acknowledgements Anna Nowakowska is supported by an ESRC doctoral studentship. A James S McDonnell scholar award to Amelia R. Hunt also provided financial support. We are grateful to Edvinas Pilipavicius and Juraj Sikra for data collection. We also wish to thank W. Joseph MacInnes for help with programming the experiment and Paul Hibbard for help with filtering the faces.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Scheduling optimization is concerned with the optimal allocation of events to time slots. In this paper, we look at one particular example of scheduling problems - the 2015 Joint Statistical Meetings. We want to assign each session among similar topics to time slots to reduce scheduling conflicts. Chapter 1 briefly talks about the motivation for this example as well as the constraints and the optimality criterion. Chapter 2 proposes use of Latent Dirichlet Allocation (LDA) to identify the topic proportions in each session and talks about the fitting of the model. Chapter 3 translates these ideas into a mathematical formulation and introduces a Greedy Algorithm to minimize conflicts. Chapter 4 demonstrates the improvement of the scheduling with this method.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire de maîtrise traite de la théorie de la ruine, et plus spécialement des modèles actuariels avec surplus dans lesquels sont versés des dividendes. Nous étudions en détail un modèle appelé modèle gamma-omega, qui permet de jouer sur les moments de paiement de dividendes ainsi que sur une ruine non-standard de la compagnie. Plusieurs extensions de la littérature sont faites, motivées par des considérations liées à la solvabilité. La première consiste à adapter des résultats d’un article de 2011 à un nouveau modèle modifié grâce à l’ajout d’une contrainte de solvabilité. La seconde, plus conséquente, consiste à démontrer l’optimalité d’une stratégie de barrière pour le paiement des dividendes dans le modèle gamma-omega. La troisième concerne l’adaptation d’un théorème de 2003 sur l’optimalité des barrières en cas de contrainte de solvabilité, qui n’était pas démontré dans le cas des dividendes périodiques. Nous donnons aussi les résultats analogues à l’article de 2011 en cas de barrière sous la contrainte de solvabilité. Enfin, la dernière concerne deux différentes approches à adopter en cas de passage sous le seuil de ruine. Une liquidation forcée du surplus est mise en place dans un premier cas, en parallèle d’une liquidation à la première opportunité en cas de mauvaises prévisions de dividendes. Un processus d’injection de capital est expérimenté dans le deuxième cas. Nous étudions l’impact de ces solutions sur le montant des dividendes espérés. Des illustrations numériques sont proposées pour chaque section, lorsque cela s’avère pertinent.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A scenario-based two-stage stochastic programming model for gas production network planning under uncertainty is usually a large-scale nonconvex mixed-integer nonlinear programme (MINLP), which can be efficiently solved to global optimality with nonconvex generalized Benders decomposition (NGBD). This paper is concerned with the parallelization of NGBD to exploit multiple available computing resources. Three parallelization strategies are proposed, namely, naive scenario parallelization, adaptive scenario parallelization, and adaptive scenario and bounding parallelization. Case study of two industrial natural gas production network planning problems shows that, while the NGBD without parallelization is already faster than a state-of-the-art global optimization solver by an order of magnitude, the parallelization can improve the efficiency by several times on computers with multicore processors. The adaptive scenario and bounding parallelization achieves the best overall performance among the three proposed parallelization strategies.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

There has been an increasing interest in the development of new methods using Pareto optimality to deal with multi-objective criteria (for example, accuracy and time complexity). Once one has developed an approach to a problem of interest, the problem is then how to compare it with the state of art. In machine learning, algorithms are typically evaluated by comparing their performance on different data sets by means of statistical tests. Standard tests used for this purpose are able to consider jointly neither performance measures nor multiple competitors at once. The aim of this paper is to resolve these issues by developing statistical procedures that are able to account for multiple competing measures at the same time and to compare multiple algorithms altogether. In particular, we develop two tests: a frequentist procedure based on the generalized likelihood-ratio test and a Bayesian procedure based on a multinomial-Dirichlet conjugate model. We further extend them by discovering conditional independences among measures to reduce the number of parameters of such models, as usually the number of studied cases is very reduced in such comparisons. Data from a comparison among general purpose classifiers is used to show a practical application of our tests.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les modèles d'optimalité postulent que les animaux en quête de ressources utilisent le taux de gain de valeur adaptative pour optimiser plusieurs comportements tels que la répartition du temps lors de l’exploitation d‘un agrégat et l'investissement en progénitures. Bien que la durée de plusieurs comportements doit être régulée, peu d’évidences de la perception du temps sont actuellement disponibles pour les insectes et aucune pour les guêpes parasitoïdes, et ce malgré leur importance en tant que modèles écologiques. De plus, puisque les guêpes parasitoïdes sont poïkilothermes, cette capacité pourrait être affectée par la température. Nous avons supposé que les guêpes parasitoïdes auraient la capacité de percevoir le temps, à la fois de façon prospective (mesure du temps écoulé) et rétrospective (durée d'un événement passé), afin d'optimiser les décisions liées à l'exploitation d’agrégats d’hôtes et à la reproduction. Nous avons également émis l'hypothèse que la température aurait une incidence sur la perception du temps des guêpes parasitoïdes. Pour la mesure prospective du temps, nous avons utilisé la capacité d’apprentissage associatif de Microplitis croceipes (Hymenoptera: Braconidae). Les guêpes ont été entraînées à associer une odeur à la durée d'un intervalle entre des hôtes. Après leur entraînement, elles ont été testées dans un tunnel de vol avec un choix d’odeurs. Les guêpes ont choisi majoritairement l'odeur associée à l'intervalle de temps auquel elles étaient testées. Nous avons également investigué le rôle de la dépense énergétique sur la mesure du temps. Suite à une restriction de mouvement des guêpes pendant l'intervalle de temps entre les hôtes, elles choisissaient aléatoirement dans le tunnel de vol. L'absence de dépense énergétique les aurait rendues incapables de mesurer le temps. La dépense d'énergie est donc un substitut essentiel pour mesurer le temps. Pour la mesure rétrospective du temps, nous avons utilisé le processus d'évaluation de l'hôte de Trichogramma euproctidis (Hymenoptera: Trichogrammatidae). Certains trichogrammes utilisent la durée du transit initial sur l'œuf hôte afin d’en évaluer la taille et d’ajuster le nombre d’œufs à y pondre. Nous avons augmenté artificiellement la durée de transit initiale de T. euproctidis en suspendant l'œuf hôte pour le faire paraître plus gros qu'un œuf de taille similaire. Une augmentation de la durée de transit initiale a augmenté la taille de la ponte. Ceci démontre la capacité de T. euproctidis de mesurer la durée du transit initial, et donc d’une mesure du temps rétrospective. Pour déterminer si la température modifie la mesure du temps dans les espèces poïkilothermes, nous avons utilisé le comportement d’exploitation d’agrégats d’hôtes de T. euproctidis. Les modèles d’optimalités prédisent que les guêpes devraient rester plus longtemps et quitter à un faible taux de gain de valeur adaptative suite à un déplacement de longue durée plutôt que pour un déplacement de courte durée. Nous avons testé l'impact d'un déplacement de 24 h à différentes températures sur l'exploitation d’agrégats d’hôtes. Un déplacement à température chaude augmente le temps de résidence dans l’agrégat et diminue le taux de gain de valeur adaptative au moment de quitter ; ces comportements sont associés à un trajet de longue durée. L'inverse a été observé lors d’un déplacement à une température froide. Les températures chaude et froide ont modulé la mesure du temps en accélérant ou ralentissant l'horloge biologique, faisant paraître le déplacement respectivement plus long ou plus court qu’il ne l’était réellement. Ces résultats démontrent clairement que les guêpes parasitoïdes ont la capacité de mesurer le temps, autant rétrospectivement que prospectivement. Des preuves directes de leur capacité sont maintenant disponibles pour au moins deux espèces de guêpes parasitoïdes, une composante essentielle des modèles d'optimalité. Le rôle de la dépense énergétique dans la mesure du temps a aussi été démontré. Nos résultats fournissent également la preuve de l'impact de la température sur la perception du temps chez les insectes. L'utilisation de la dépense énergétique en tant que proxy pour mesurer le temps pourrait expliquer une partie de sa thermosensibilité, puisque les guêpes parasitoïdes sont poïkilothermes. Cette mesure du temps sensible à la température pourrait affecter des stratégies de lutte biologique. Sur le terrain, au début de la journée, la température de l'air sera similaire à la température de l'air autour des plantes infestées par des parasites, alors qu'elle sera plus chaude pendant la journée. En lutte biologique augmentative, les guêpes parasitoïdes libérées resteraient plus longtemps dans les agrégats d’hôtes que celles relâchées en début de journée.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse se compose de trois articles sur les politiques budgétaires et monétaires optimales. Dans le premier article, J'étudie la détermination conjointe de la politique budgétaire et monétaire optimale dans un cadre néo-keynésien avec les marchés du travail frictionnels, de la monnaie et avec distortion des taux d'imposition du revenu du travail. Dans le premier article, je trouve que lorsque le pouvoir de négociation des travailleurs est faible, la politique Ramsey-optimale appelle à un taux optimal d'inflation annuel significativement plus élevé, au-delà de 9.5%, qui est aussi très volatile, au-delà de 7.4%. Le gouvernement Ramsey utilise l'inflation pour induire des fluctuations efficaces dans les marchés du travail, malgré le fait que l'évolution des prix est coûteuse et malgré la présence de la fiscalité du travail variant dans le temps. Les résultats quantitatifs montrent clairement que le planificateur s'appuie plus fortement sur l'inflation, pas sur l'impôts, pour lisser les distorsions dans l'économie au cours du cycle économique. En effet, il ya un compromis tout à fait clair entre le taux optimal de l'inflation et sa volatilité et le taux d'impôt sur le revenu optimal et sa variabilité. Le plus faible est le degré de rigidité des prix, le plus élevé sont le taux d'inflation optimal et la volatilité de l'inflation et le plus faible sont le taux d'impôt optimal sur le revenu et la volatilité de l'impôt sur le revenu. Pour dix fois plus petit degré de rigidité des prix, le taux d'inflation optimal et sa volatilité augmentent remarquablement, plus de 58% et 10%, respectivement, et le taux d'impôt optimal sur le revenu et sa volatilité déclinent de façon spectaculaire. Ces résultats sont d'une grande importance étant donné que dans les modèles frictionnels du marché du travail sans politique budgétaire et monnaie, ou dans les Nouveaux cadres keynésien même avec un riche éventail de rigidités réelles et nominales et un minuscule degré de rigidité des prix, la stabilité des prix semble être l'objectif central de la politique monétaire optimale. En l'absence de politique budgétaire et la demande de monnaie, le taux d'inflation optimal tombe très proche de zéro, avec une volatilité environ 97 pour cent moins, compatible avec la littérature. Dans le deuxième article, je montre comment les résultats quantitatifs impliquent que le pouvoir de négociation des travailleurs et les coûts de l'aide sociale de règles monétaires sont liées négativement. Autrement dit, le plus faible est le pouvoir de négociation des travailleurs, le plus grand sont les coûts sociaux des règles de politique monétaire. Toutefois, dans un contraste saisissant par rapport à la littérature, les règles qui régissent à la production et à l'étroitesse du marché du travail entraînent des coûts de bien-être considérablement plus faible que la règle de ciblage de l'inflation. C'est en particulier le cas pour la règle qui répond à l'étroitesse du marché du travail. Les coûts de l'aide sociale aussi baisse remarquablement en augmentant la taille du coefficient de production dans les règles monétaires. Mes résultats indiquent qu'en augmentant le pouvoir de négociation du travailleur au niveau Hosios ou plus, les coûts de l'aide sociale des trois règles monétaires diminuent significativement et la réponse à la production ou à la étroitesse du marché du travail n'entraîne plus une baisse des coûts de bien-être moindre que la règle de ciblage de l'inflation, qui est en ligne avec la littérature existante. Dans le troisième article, je montre d'abord que la règle Friedman dans un modèle monétaire avec une contrainte de type cash-in-advance pour les entreprises n’est pas optimale lorsque le gouvernement pour financer ses dépenses a accès à des taxes à distorsion sur la consommation. Je soutiens donc que, la règle Friedman en présence de ces taxes à distorsion est optimale si nous supposons un modèle avec travaie raw-efficace où seule le travaie raw est soumis à la contrainte de type cash-in-advance et la fonction d'utilité est homothétique dans deux types de main-d'oeuvre et séparable dans la consommation. Lorsque la fonction de production présente des rendements constants à l'échelle, contrairement au modèle des produits de trésorerie de crédit que les prix de ces deux produits sont les mêmes, la règle Friedman est optimal même lorsque les taux de salaire sont différents. Si la fonction de production des rendements d'échelle croissant ou decroissant, pour avoir l'optimalité de la règle Friedman, les taux de salaire doivent être égales.