Опукла оптимізація — це підрозділ математичної оптимізації, котрий вивчає проблему мінімізації опуклих функцій над опуклими множинами. Багато класів задач з опуклою оптимізацією допускають поліноміальні алгоритми[1] тоді як математична оптимізація в цілому NP-важка[2][3][4].

Опукла оптимізація
CMNS: Опукла оптимізація у Вікісховищі

Опукла оптимізація має застосування в широкому спектрі дисциплін, таких як автоматичні системи управління, оцінка та обробка сигналів, комунікації та мережі, проєктування електронних схем[5], аналіз та моделювання даних, фінанси, статистика (оптимальний експериментальний дизайн),[6] та структурна оптимізація, де концепція наближення виявилась ефективною.[5][7] З недавніми досягненнями в галузі обчислювальних та оптимізаційних алгоритмів, опукле програмування майже настільки ж просте, як і лінійне програмування[5].

Визначення

ред.

Проблема оптимізації опуклості — це проблема оптимізації, в якій цільова функція є опуклою функцією, а допустимою множиною є опукла множина. Функція   відображення деякої підмножини   в   опукла, якщо її домен опуклий і для всіх   і також для всіх   у своєму домені виконується така умова:  . Множина S опукла, якщо для всіх членів   і для всіх  , у нас є, що  .

Конкретно, проблема опуклої оптимізації — це проблема пошуку   маючи

 ,

де об'єктивна функція   є опуклою, як і допустима множина  [8][9]. Якщо така точка існує, вона називається оптимальною точкою ; множина всіх оптимальних точок називається оптимальною множиною. Якщо   є необмеженою внизу над   або мінімум не досягнуто, тоді, як кажуть, проблема оптимізації є необмеженою. Інакше, якщо   є порожньою множиною, тоді проблема, як кажуть, невирішувана[5].

Стандартна форма

ред.

Кажуть, що проблема опуклої оптимізації є в стандартній формі, якщо вона записана як

 

де   — змінна оптимізації, функції   є опуклими, і функції   є афінними[5]. У цьому позначенні функція   — це цільова функція задачі, і функції   і   називаються функціями обмеження. Можливим набором задачі оптимізації є множина, що складається з усіх точок   задовольняючи   і  . Ця множина є опуклою, оскільки підмножини опуклих функцій опуклі, афінні множини опуклі, а перетин опуклих множин — опуклий[5].

Багато проблем оптимізації можуть бути сформульовані в цій стандартній формі. Наприклад, проблема максимізації увігнутої функції   може бути переформульовано як проблема мінімізації опуклої функції   ; така проблема максимізації увігнутої функції над опуклою множиною часто називається проблемою оптимізації опуклої форми.

Властивості

ред.

Наступні корисні властивості задач опуклої оптимізації:[5][10]

Ці результати використовуються теорією опуклої мінімізації разом з геометричними поняттями функціонального аналізу (в просторах Гільберта), такими як теорема проєкції Гільберта, теорема розділення гіперплан та лема Фаркаса.

Приклади

ред.

Перелічені класи задач — це все задачі опуклої оптимізації, або їх можна звести до задачі опуклої оптимізації за допомогою простих перетворень:[5][11]

 
Ієрархія задач опуклої оптимізації. (LP: лінійна програма, QP: квадратична програма, програма конусів SOCP другого порядку, SDP: напіввизначена програма, CP: програма конуса.)

Множники Лагранжа

ред.

Розглянемо проблему мінімізації опуклої форми, задану в стандартній формі функцією витрат   та обмеженням нерівності   для  . Домен   є:

 

Функцією Лагранжа для задачі є

 

Для кожної точки   в   що мінімізує   над  , існують реальні числа   котрі називаються множниками Лагранжа, які одночасно задовольняють ці умови:

  1.   мінімізує   над усім  
  2.   принаймні з одним  
  3.   (додаткова млявість).

Якщо існує «строго допустима точка», тобто точка  , котра задовольняє

 

тоді твердження вище може вимагати  .

І навпаки, якщо якісь   в   задовольняють (1) — (3) для скалярів   з  , то   мінімізує   над  .

Алгоритми

ред.

Задачі опуклої оптимізації можуть бути розв'язані такими сучасними методами:[12]

Субградієнтні методи можуть бути реалізовані просто і тому широко застосовуються.[15] Подвійні субградієнтні методи — це субградієнтні методи, застосовані до подвійної задачі. Метод дрейфування плюс-штрафу схожий з методом подвійного субградієнта.

Розширення

ред.

Розширення опуклої оптимізації включають оптимізацію функцій двоопуклої, псевдоопуклої та квазіопуклої. Розширення теорії опуклого аналізу та ітеративних методів приблизно розв'язування задач мінімізації, що не є опуклими, відбуваються в області узагальненої опуклості, також відомої як абстрактний опуклий аналіз.

Див. також

ред.

Примітки

ред.
  1. а б Nesterov та Nemirovskii, 1994
  2. Murty, Katta; Kabadi, Santosh (1987). Some NP-complete problems in quadratic and nonlinear programming. Mathematical Programming. 39 (2): 117—129. doi:10.1007/BF02592948.
  3. Sahni, S. "Computationally related problems, " in SIAM Journal on Computing, 3, 262—279, 1974.
  4. Quadratic programming with one negative eigenvalue is NP-hard, Panos M. Pardalos and Stephen A. Vavasis in Journal of Global Optimization, Volume 1, Number 1, 1991, pg.15-22.
  5. а б в г д е ж и Boyd та Vandenberghe, 2004
  6. Chritensen/Klarbring, chpt. 4.
  7. Schmit, L.A.; Fleury, C. 1980: Structural synthesis by combining approximation concepts and dual methods.
  8. Hiriart-Urruty, Jean-Baptiste; Lemaréchal, Claude (1996). Convex analysis and minimization algorithms: Fundamentals. с. 291. ISBN 9783540568506.
  9. Ben-Tal, Aharon; Nemirovskiĭ, Arkadiĭ Semenovich (2001). Lectures on modern convex optimization: analysis, algorithms, and engineering applications. с. 335—336. ISBN 9780898714913.
  10. Rockafellar, R. Tyrrell (1993). Lagrange multipliers and optimality (PDF). SIAM Review. 35 (2): 183—238. CiteSeerX 10.1.1.161.7209. doi:10.1137/1035044.
  11. Agrawal, Akshay; Verschueren, Robin; Diamond, Steven; Boyd, Stephen (2018). A rewriting system for convex optimization problems (PDF). Control and Decision. 5 (1): 42—60. arXiv:1709.04494. doi:10.1080/23307706.2017.1397554.
  12. Для методів для опуклої мінімізації див. книги від Hiriart-Urruty і Lemaréchal, а також підручники від Ruszczyński і Bertsekas і від Boyd і Vandenberghe (внутрішня точка).
  13. Nesterov, Yurii; Arkadii, Nemirovskii (1995). Interior-Point Polynomial Algorithms in Convex Programming. Society for Industrial and Applied Mathematics. ISBN 978-0898715156.
  14. Peng, Jiming; Roos, Cornelis; Terlaky, Tamás (2002). Self-regular functions and new search directions for linear and semidefinite optimization. Mathematical Programming. 93 (1): 129—171. doi:10.1007/s101070200296. ISSN 0025-5610.
  15. Bertsekas

Список літератури

ред.

Посилання

ред.