فروشگاه

توضیحات

PRACTICAL MATHEMATICAL
OPTIMIZATION
An Introduction to Basic Optimization Theory and
Classical and New Gradient-Based Algorithms
JAN A. SNYMAN
University of Pretoria, Pretoria, South Africa

– Springer

۲۷۶صفحه  فونت ۱۴

 

پس از پرداخت آنلاین میتوانید فایل کامل این پروژه را دانلود کنید

 

Contents
PREFACE xv
TABLE OF NOTATION xix
۱ INTRODUCTION 1
۱٫۱ What is mathematical optimization? . . . . . . . . . . . . 1
۱٫۲ Objective and constraint functions . . . . . . . . . . . . . 4
۱٫۳ Basic optimization concepts . . . . . . . . . . . . . . . . . 6
Simplest class of problems:
Unconstrained one-dimensional minimization . . . 6
Contour representation of a function of two variables
(n = 2) . . . . . . . . . . . . . . . . . . . . . 7
Contour representation of constraint functions . . 10
Contour representations of constrained optimization
problems . . . . . . . . . . . . . . . . . . . . . 11
Simple example illustrating the formulation and
solution of an optimization problem . . . . . . . . 12
Maximization . . . . . . . . . . . . . . . . . . . . . 14
The special case of Linear Programming . . . . . . 14
viii CONTENTS
۱٫۳٫۸ Scaling of tiesign variables . . . . . . . . . . . . . . 15
۱٫۴ Further mathematical prerequisites . . . . . . . . . . . . . 16
۱٫۴٫۱ Convexity . . . . . . . . . . . . . . . . . . . . . . . 16
۱٫۴٫۲ Gradient vc:ctor of f (x) …………… 18
۱٫۴٫۳ Hessian matrix of f (x) ……………. 20
۱٫۴٫۴ The quadr~ticfu nction in Rn ………… 20
۱٫۴٫۵ The directimal derivative of f (x) in the direction u 21
۱٫۵ Unconstrained mi1 imization …………….. 21
۱٫۵٫۱ Global and local minima; saddle points …… 23
۱٫۵٫۲ Local chars.cterization of the behaviour of a multi-
variable fullction . . . . . . . . . . . . . . . . . . . 24
۱٫۵٫۳ Necessary and sufficient conditions for a strong
local minimum at x* . . . . . . . . . . . . . . . . . 26
۱٫۵٫۴ General intlirect method for computing x* ….. 28
۱٫۶ Exercises . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
۲ LINE SEARCH DESCENT METHODS FOR UNCONSTRAINED
MINIM IZATION 33
۲٫۱ General line searc? descent algorithm for unconstrained
minimization . . . . . . . . . . . . . . . . . . . . . . . . . 33
۲٫۱٫۱ General structure of a line search descent method . 34
۲٫۲ One-dimensional 1 ne search . . . . . . . . . . . . . . . . . 35
۲٫۲٫۱ Golden section method . . . . . . . . . . . . . . . . 36
۲٫۲٫۲ Powell’s qcadratic interpolation algorithm ….. 38
۲٫۲٫۳ Exercises . . . . . . . . . . . . . . . . . . . . . . . 39
CONTENTS ix
۲٫۳ First order line search descent methods ………. 40
۲٫۳٫۱ The method of steepest descent ……….. 40
۲٫۳٫۲ Conjugate gradient methods . . . . . . . . . . . . . 43
۲٫۴ Second order line search descent methods . . . . . . . . . 49
۲٫۴٫۱ Modified Newton’s method …………. 50
۲٫۴٫۲ Quasi-Newton methods …………… 51
۲٫۵ Zero order methods and computer
optimization subroutines …………
۲٫۶ Test functions . . . . . . . . . . . . . . . . . . . . . . . . . 53
۳ STANDARD METHODS FOR CONSTRAINED OPTIMIZATION
۵۷
۳٫۱ Penalty function methods for constrained minimization . . 57
۳٫۱٫۱ The penalty function formulation ………. 58
۳٫۱٫۲ Illustrative examples …………….. 58
۳٫۱٫۳ Sequential unconstrained minimization technique
(SUMT) …………………… 59
۳٫۱٫۴ Simple example ……………….. 60
۳٫۲ Classical methods for constrained
optimization problems ……………….. 62
۳٫۲٫۱ Equality constrained problems and the Lagrangian
function . . . . . . . . . . . . . . . . . . . 62
۳٫۲٫۲ Classical approach to optimization with inequality
constraints: the KKT conditions ………. 70
۳٫۳ Saddle point theory and duality …………… 73
۳٫۳٫۱ Saddle point theorem ……………. 73
CONTENTS
۳٫۳٫۲ Duality …………………… 74
۳٫۳٫۳ Duality theorem ………………. 74
۳٫۴ Quadratic progra’nming . . . . . . . . . . . . . . . . . . . 77
۳٫۴٫۱ Active set of constraints …………… 78
۳٫۴٫۲ The method of Theil and Van de Panne . . . . . . 78
۳٫۵ Modern methods for constrained optimization ……. 81
۳٫۵٫۱ The gradient projection method ………. 81
۳٫۵٫۲ Multiplier methods ……………… 89
۳٫۵٫۳ Sequential quadratic programming (SQP) . . . . . 93
۴ NEW GRADIENT-BASED TRAJECTORY AND APPROXIMATION
METHODS 97
۴٫۱ Introduction …………………….. 97
۴٫۱٫۱ Why new dgorithms? ……………. 97
۴٫۱٫۲ Research :.t the University of Pretoria ……. 98
۴٫۲ The dynamic trajectory optimization
method ………………………. 100
۴٫۲٫۱ Basic dynamic model …………….. 100
۴٫۲٫۲ Basic a1go:ithm for unconstrained problems (LFOP) 101
۴٫۲٫۳ Modificati ~n for constrained problems (LFOPC) . 101
۴٫۳ The spherical quadratic steepest descent method . . . . . 1 05
۴٫۳٫۱ Introductilm . . . . . . . . . . . . . . . . . . . . . 1 05
۴٫۳٫۲ Classical steepest descent method revisited …. 106
۴٫۳٫۳ The SQSIl algorithm …………….. 107
CONTENTS xi
۴٫۳٫۴ Convergence of the SQSD method ……… 108
۴٫۳٫۵ Numerical results and conclusion ………. 113
۴٫۳٫۶ Test functions used for SQSD . . . . . . . . . . . . 1 17
۴٫۴ The Dynamic-Q optimization algorithm . . . . . . . . . . 1 19
۴٫۴٫۱ Introduction . . . . . . . . . . . . . . . . . . . . . 1 19
۴٫۴٫۲ The Dynamic-Q method . . . . . . . . . . . . . . . 1 19
۴٫۴٫۳ Numerical results and conclusion . . . . . . . . . . 1 23
۴٫۵ A gradient-only line search method for conjugate gradient
methods ………………………. 126
۴٫۵٫۱ Introduction ………………… 126
۴٫۵٫۲ Formulation of optimization problem …….. 127
۴٫۵٫۳ Gradient-only line search . . . . . . . . . . . . . . 1 28
۴٫۵٫۴ Conjugate gradient search directions and SUMT . 133
۴٫۵٫۵ Numerical results ………………. 135
۴٫۵٫۶ Conclusion …………………. 139
۴٫۶ Global optimization using dynamic search trajectories . . 139
۴٫۶٫۱ Introduction ………………… 139
۴٫۶٫۲ The Snyman-Fatti trajectory method . . . . . . . . 1 41
۴٫۶٫۳ The modified bouncing ball trajectory method . . 143
۴٫۶٫۴ Global stopping criterion ………….. 145
۴٫۶٫۵ Numerical results . . . . . . . . . . . . . . . . . . . 1 48
۵ EXAMPLE PROBLEMS 151
۵٫۱ Introductory examples ……………….. 151
xii CONTENTS
۵٫۲ Line search descent methods …………….. 157
۵٫۳ Standard methods for constrained
optimization …………………….. 170
۵٫۳٫۱ Penalty fuliction problems ………….. 170
۵٫۳٫۲ The Lagraligian method applied to
equality constrained problems . . . . . . . . . . . . 1 72
۵٫۳٫۳ Solution of inequality constrained problems
via auxilial y variables ……………. 181
۵٫۳٫۴ Solution oi inequality constrained problems via
the Karush-Kuhn-Tucker conditions …….. 184
۵٫۳٫۵ Solution of constrained problems via
the dual p~oblemf ormulation . . . . . . . . . . . . 1 91
۵٫۳٫۶ Quadratic programming problems ……… 194
۵٫۳٫۷ Application of the gradient projection method . . 199
۵٫۳٫۸ Applicatior~ of the augmented Lagrangian method 202
۵٫۳٫۹ Applicatior~ of the sequential quadratic programming
meth 3d . . . . . . . . . . . . . . . . . . . . . 203
۶ SOME THEOREMS 207
۶٫۱ Characterization c f functions and minima ……… 207
۶٫۲ Equality constrained problem ……………. 211
۶٫۳ Karush-Kuhn-Tucser theory . . . . . . . . . . . . . . . . . 2 15
۶٫۴ Saddle point cond~tions . . . . . . . . . . . . . . . . . . . 2 18
۶٫۵ Conjugate gradient methods . . . . . . . . . . . . . . . . . 2 23
۶٫۶ DFP method . . . . . . . . . . . . . . . . . . . . . . . . . 2 27
CONTENTS xiii
A THE SIMPLEX METHOD FOR LINEAR PROGRAMMING
PROBLEMS 233
A. l Introduction ……………………..2 33
A.2 Pivoting for increase in objective function ……… 235
A.3 Example ………………………. 236
A.4 The auxiliary problem for problem with infeasible origin . 238
A.5 Example of auxiliary problem solution ……….. 239
A.6 Degeneracy …………………….. 241
A.7 The revised simplex method …………….. 242
A.8 An iteration of the RSM ……………… 244

نقد وبررسی

نقد بررسی یافت نشد...

اولین نفر باشید که نقد و بررسی ارسال میکنید... “PRACTICAL MATHEMATICAL OPTIMIZATION”

PRACTICAL MATHEMATICAL OPTIMIZATION

0 نقد و بررسی
وضعیت کالا : موجود است.
شناسه محصول : 1351

قیمت : تومان9,800