Глобальна оптимізація: відмінності між версіями

Матеріал з Вікіпедії — вільної енциклопедії.
Перейти до навігації Перейти до пошуку
Вилучено вміст Додано вміст
Створено шляхом перекладу сторінки «Global optimization»
Мітки: суміш розкладок у тексті [вмісту] [вмісту 2»]
(Немає відмінностей)

Версія за 17:55, 5 грудня 2022

Глобальна оптимізація — це розділ прикладної математики та числового аналізу, який намагається знайти глобальні мінімуми або максимуми функції чи набору функцій на заданому наборі. Зазвичай це описується як проблема мінімізації, оскільки максимізація дійсної функції еквівалентна мінімізації функції .

Дано нелінійну та невипуклу неперервну функцію з глобальними мінімумами і набір усіх глобальних мінімізаторів в , стандартну задачу мінімізації можна подати як

Тобто знаходження і глобальний мінімізатор в наборі  ; де є (не обов’язково опуклою) компактною множиною, визначеною нерівностями .

Глобальна оптимізація відрізняється від локальної оптимізації тим, що вона зосереджена на пошуку мінімуму або максимуму над даним набором, на відміну від пошуку локальних мінімумів або максимумів. Знайти довільний локальний мінімум відносно просто за допомогою класичних методів локальної оптимізації . Знайти глобальний мінімум функції набагато складніше - аналітичні методи часто не застосовуються, а використання стратегій чисельного розв’язання часто призводить до дуже складних завдань.

Загальна теорія

Недавній підхід до проблеми глобальної оптимізації полягає в розподілі мінімумів.[1] У цій роботі було встановлено зв'язок між будь-якою безперервною функцією на компактному наборі і її глобальними мінімумами . Як типовий випадок, випливає, що

тим часом,

де є -вимірна міра Лебега множини мінімізаторів . І якщо не є постійною на , дана нерівність

виконується для всіх і , що передбачає низку монотонних належностей, і одним із них є, наприклад:

І ми визначаємо розподіл мінімумів як слабку межу таку, що тотожність

виконується для кожної гладкої функції з компактною опорою в . Ось дві безпосередні властивості  :

(1) задовольняє дану рівність: .
(2) Якщо безперервна на , тоді .

Як відомо, зв’язок між будь-якою диференційованою опуклою функцією та її мінімумами строго встановлений градієнтом. Якщо диференційована на опуклій множині , потім є опуклим тоді і тільки тоді, коли виповнюється дана нерівність:

Таким чином, означає, що виповнюється для всіх , тобто є глобальним мінімізатором на .

Додатки

Типові приклади застосування глобальної оптимізації включають:

Детерміновані методи

Найуспішніші загальні методи:

Внутрішня і зовнішня апроксимація

В обох цих методах множина, над якою функція повинна бути оптимізована, апроксимується многогранниками. У внутрішньому наближенні многогранники містяться в множині, тоді як у зовнішньому наближенні многогранники містять множину.

Метод січної площини

Метод січної площини — це загальний термін для методів оптимізації, які ітеративно уточнюють можливий набір або цільову функцію за допомогою лінійних нерівностей, які називаються розрізами . Такі процедури широко використовуються для пошуку цілочисельних розв’язків задач змішаного цілочисельного лінійного програмування (MILP), а також для вирішення загальних, не обов’язково диференційованих, задач опуклої оптимізації . Використання січних площин для вирішення MILP було введено Ральфом Е. Гоморі та Вацлавом Хваталом .

Метод гілок і меж ( BB або B&B ) — це парадигма розробки алгоритму для задач дискретної та комбінаторної оптимізації . Метод гілок і меж складається з систематичного перерахування варіантів рішень за допомогою пошуку в просторі станів : набір рішень-кандидатів вважається утвореним кореневим деревом із повним набором у корені. Алгоритм досліджує гілки цього дерева, які представляють підмножини набору рішень. Перед перерахуванням варіантів вирішення, гілка перевіряється на верхню та нижню оцінку оптимального рішення та відкидається, якщо вона не може дати кращого рішення, ніж найкраще, знайдене на даний момент алгоритмом.

Інтервальні методи

Інтервальна арифметика, інтервальна математика, інтервальний аналіз або інтервальне обчислення — це метод, розроблений математиками з 1950-х і 1960-х років як підхід до встановлення обмежень на помилки округлення та вимірювання в математичних обчисленнях і, таким чином, для розробки чисельних методів, які дають правильні результати. Інтервальна арифметика допомагає знаходити надійні та гарантовані рішення рівнянь і задач оптимізації.

Методи, засновані на "дійсній" алгебраїчній геометрії

"Дійсна" алгебра — це розділ алгебри, який має відношення до дійсної алгебраїчної (і напівалгебраїчної) геометрії. В основному він стосується вивчення впорядкованих полів і впорядкованих кілець (зокрема реальних замкнених полів ) та їх застосування до вивчення позитивних поліномів і сум квадратів поліномів . Його можна використовувати для опуклої оптимізації

Стохастичні методи

Існує кілька точних або неточних алгоритмів на основі Монте-Карло:

Вибірковий метод Монте-Карло

У цьому методі для пошуку наближеного рішення використовується випадкове моделювання.

Приклад: задача комівояжера називається звичайною задачею оптимізації. Тобто всі факти (відстані між кожною точкою призначення), необхідні для визначення оптимального шляху, відомі, і мета полягає в тому, щоб переглянути можливі варіанти подорожей і знайти той, який має найменшу загальну відстань. Однак припустимо, що замість того, щоб мінімізувати загальну відстань, пройдену для відвідування кожного бажаного пункту призначення, ми хотіли мінімізувати загальний час, необхідний для досягнення кожного пункту призначення. Це виходить за рамки традиційної оптимізації, оскільки час у дорозі за своєю суттю є невизначеним (пробки, час доби тощо). ). Як наслідок, щоб визначити наш оптимальний шлях, ми хотіли б використати симуляцію – оптимізацію, щоб спочатку зрозуміти діапазон потенційного часу, який може знадобитися для переходу від однієї точки до іншої (у цьому випадку представлений розподілом ймовірностей, а не конкретною відстанню), а потім оптимізувати наші рішення про подорожі, щоб визначити найкращий шлях, яким слід слідувати, враховуючи цю невизначеність.

Стохастичне тунелювання

Стохастичне тунелювання (STUN) — це підхід до глобальної оптимізації, заснований на методі Монте-Карловибірка функції, яка мінімізується, і в якій функція нелінійно перетворюється, щоб полегшити тунелювання між областями, що містять мінімуми функції. Просте тунелювання дозволяє швидше досліджувати простір зразків і швидше збіжність до хорошого рішення.

Паралельний відпуск

Паралельний відпуск, також відомий як вибірка MCMC із обміном репліками, — це метод моделювання, спрямований на покращення динамічних властивостей моделювання фізичних систем методом Монте-Карло та методів вибірки Монте-Карло ланцюга Маркова. Метод обміну копіями спочатку був розроблений Свендсеном [2], потім розширений Гейєром [3] і пізніше дороблений Джорджіо Парізі . [4] [5] Сугіта та Окамото сформулювали молекулярно-динамічну версію паралельного відпуску: [6] ця версія зазвичай відома як молекулярна динаміка обміну репліками або REMD.

По суті, запускається N копій системи, випадково ініціалізованих, при різних температурах. Потім на основі критерію Метрополіса відбувається обмін конфігураціями при різних температурах. Ідея цього методу полягає в тому, щоб зробити конфігурації при високих температурах доступними для моделювання при низьких температурах і навпаки. Це призводить до дуже надійного ансамблю, який здатний відбирати як низькоенергетичні, так і високоенергетичні конфігурації. Таким чином, такі термодинамічні властивості, як питома теплоємність, яка, як правило, погано обчислюється в канонічному ансамблі, можуть бути обчислені з високою точністю.

Евристика та метаевристика

Інші підходи включають евристичні стратегії пошуку в просторі пошуку більш-менш оптимальним способом, включаючи:

Методологія аналізу поверхні відгуку

Дивіться також

Виноски

  1. Xiaopeng Luo (2018). Minima distribution for global optimization. arXiv:1812.03457.
  2. Swendsen RH and Wang JS (1986) Replica Monte Carlo simulation of spin glasses Physical Review Letters 57 : 2607–2609
  3. C. J. Geyer, (1991) in Computing Science and Statistics, Proceedings of the 23rd Symposium on the Interface, American Statistical Association, New York, p. 156.
  4. Marco Falcioni and Michael W. Deem (1999). A Biased Monte Carlo Scheme for Zeolite Structure Solution. J. Chem. Phys. 110 (3): 1754—1766. arXiv:cond-mat/9809085. Bibcode:1999JChPh.110.1754F. doi:10.1063/1.477812.
  5. David J. Earl and Michael W. Deem (2005) "Parallel tempering: Theory, applications, and new perspectives", Phys. Chem. Chem. Phys., 7, 3910
  6. Y. Sugita and Y. Okamoto (1999). Replica-exchange molecular dynamics method for protein folding. Chemical Physics Letters. 314 (1–2): 141—151. Bibcode:1999CPL...314..141S. doi:10.1016/S0009-2614(99)01123-9.
  7. Thacker, Neil; Cootes, Tim (1996). Graduated Non-Convexity and Multi-Resolution Optimization Methods. Vision Through Optimization.
  8. Hossein Mobahi, John W. Fisher III. On the Link Between Gaussian Homotopy Continuation and Convex Envelopes, In Lecture Notes in Computer Science (EMMCVPR 2015), Springer, 2015.
  9. Jonas Mockus (2013). Bayesian approach to global optimization: theory and applications. Kluwer Academic.

Посилання

Детермінована глобальна оптимізація:

Для методу імітації відпалу:

Для реактивного пошуку:

  • Roberto Battiti, M. Brunato and F. Mascia, Reactive Search and Intelligent Optimization, Operations Research/Computer Science Interfaces Series, Vol. 45, Springer, November 2008. ISBN 978-0-387-09623-0

Для стохастичних методів:

Для параллельного отпуска:

Для загальних міркувань про розмірність області визначення цільової функції:

Для стратегій, що дозволяють порівняти детермінований і стохастичний методи глобальної оптимізації.

Зовнішні посилання