Користувач:Valerii-kram/Глобальна оптимізація

Матеріал з Вікіпедії — вільної енциклопедії.
Перейти до навігації Перейти до пошуку

Глобальна оптимізація — це розділ прикладної математики та числового аналізу, який намагається знайти глобальні мінімуми чи максимуми функції або набору функцій на заданому наборі. Зазвичай це описується як проблема мінімізації, оскільки максимізація дійсної функції еквівалентна мінімізації функції .

Дано, можливо, нелінійну та невипуклу неперервну функцію з глобальними мінімумами і набір усіх глобальних мінімізаторів в , стандартну задачу мінімізації можна подати як

тобто знаходження і глобальний мінімізатор в  ; де є (не обов'язково опуклою) компактною множиною, визначеною нерівностями .

Глобальна оптимізація відрізняється від локальної оптимізації тим, що вона зосереджена на пошуку мінімуму або максимуму над даним набором, на відміну від пошуку локальних мінімумів або максимумів. Знайти довільний локальний мінімум відносно просто за допомогою класичних методів локальної оптимізації . Знайти глобальний мінімум функції набагато складніше: аналітичні методи часто не застосовуються, а використання стратегій чисельного розв'язання часто призводить до дуже складних завдань.

Загальна теорія[ред. | ред. код]

Сучасний підхід до проблеми глобальної оптимізації полягає в розподілі мінімумів.[1] Далі продемонструємо зв'язок між будь-якою безперервною функцією на компактному наборі і її глобальними мінімумами . Як типовий випадок, з цього випливає, що

тим часом,

де  — це -вимірна міра Лебега множини мінімізаторів . І якщо не є постійним на , монотонні відносини

діють для всіх і , що передбачає низку монотонних зв'язків утримування, і одним із них є, наприклад,

Далі визначаємо розподіл мінімумів як слабку межу таку, що тотожність

виконується для кожної гладкої функції з компактною опорою в . Ось дві безпосередні властивості  :

  1. задовольняє ідентичність .
  2. Якщо є безперервною на , то .

Для порівняння, добре відомий зв'язок між будь-якою диференційованою опуклою функцією та її мінімумами строго встановлюється градієнтом. Якщо диференційовна на опуклій множині , то є опуклим тоді і тільки тоді, коли

таким чином, означає, що діє для всіх , тобто є глобальним мінімізатором на .

Застосування[ред. | ред. код]

Типові приклади застосування глобальної оптимізації включають:

Детерміновані методи[ред. | ред. код]

Найуспішніші загальні точні стратегії:

Внутрішня і зовнішня апроксимація[ред. | ред. код]

В обох цих стратегіях множина, над якою функція повинна бути оптимізована, апроксимується многогранниками. У внутрішньому наближенні багатогранники містяться в множині, тоді як у зовнішньому наближенні багатогранники містять множину.

Методи січних площин[ред. | ред. код]

Метод січних площин — це загальний термін для методів оптимізації, які ітеративно уточнюють можливий набір або цільову функцію за допомогою лінійних нерівностей, які називаються розрізами. Такі процедури широко використовуються для пошуку цілочисельних розв'язків задач змішаного цілочисельного лінійного програмування, а також для вирішення загальних, не обов'язково диференційованих задач опуклої оптимізації. Використання січних площин для вирішення задач змішаного цілочисельного лінійного програмування було введено Ральфом Е. Гоморі[en] та Вацлавом Хваталом.

Методи гілок і меж[ред. | ред. код]

Докладніше: Метод гілок і меж

Метод гілок і меж — це парадигма розробки алгоритму для задач дискретної та комбінаторної оптимізації. Алгоритм складається з систематичного перерахування варіантів рішень за допомогою пошуку в просторі станів[en]: набір рішень-кандидатів вважається утвореним кореневим деревом із повним набором у корені. Алгоритм досліджує гілки цього дерева, які представляють підмножини набору рішень. Перед перерахуванням варіантів вирішення гілки, вона перевіряється на верхню та нижню оцінку оптимального рішення та відкидається, якщо не може дати кращого рішення, ніж найкраще, знайдене на даний момент алгоритмом.

Інтервальні методи[ред. | ред. код]

Інтервальна арифметика, інтервальна математика, інтервальний аналіз або інтервальне обчислення — це метод, розроблений математиками в 1960-х роках як підхід до встановлення обмежень на похибки округлення та вимірювання в математичних обчисленнях і, таким чином, для розробки чисельних методів, які дають надійні результати. Інтервальна арифметика допомагає знаходити надійні та гарантовані рішення рівнянь і задач оптимізації.

Методи, засновані на дійсній алгебричній геометрії[ред. | ред. код]

Дійсна алгебра — це частина алгебри, яка має відношення до дійсної алгебричної (і напівалгебричної) геометрії. В цілому вона стосується вивчення впорядкованих полів і впорядкованих кілець (зокрема алгебрично замкнутих полів) та їх застосування до вивчення позитивних поліномів[en] і сум квадратів поліномів[en]. Його можна використовувати для опуклої оптимізації.

Стохастичні методи[ред. | ред. код]

Існує кілька точних або неточних алгоритмів на основі Монте-Карло:

Прямий вибірковий метод Монте-Карло[ред. | ред. код]

Докладніше: Метод Монте-Карло

У цьому методі для пошуку приблизного рішення використовується випадкове моделювання.

Приклад: задача комівояжера називається звичайною задачею оптимізації. Тобто всі факти (відстані між кожною точкою призначення), необхідні для визначення оптимального шляху, відомі, і мета полягає в тому, щоб переглянути можливі варіанти подорожей, щоб знайти той, який має найменшу загальну відстань. Однак припустімо, що замість того, щоб мінімізувати загальну відстань, пройдену для відвідування кожного бажаного пункту призначення, ми хотіли мінімізувати загальний час, необхідний для досягнення кожного пункту призначення. Це виходить за рамки традиційної оптимізації, оскільки час у дорозі за своєю суттю є невизначеним (пробки, час доби, тощо). Як наслідок, щоб визначити наш оптимальний шлях, ми хотіли б використати симуляцію — оптимізацію, щоб спочатку зрозуміти діапазон потенційного часу, який може знадобитися для переходу від однієї точки до іншої (у цьому випадку представлений розподілом ймовірностей, а не конкретною відстанню) а потім оптимізувати наші рішення про подорожі, щоб визначити найкращий шлях, яким слід слідувати, враховуючи цю невизначеність.

Стохастичне тунелювання[ред. | ред. код]

Стохастичне тунелювання — це підхід до глобальної оптимізації, заснований на методі Монте-Карло — вибірка функції, яка об'єктивно мінімізується, у якій функція нелінійно перетворюється, щоб полегшити тунелювання між областями, що містять мінімуми функції. Просте тунелювання дозволяє швидше досліджувати простір зразків і забезпечує більш швидку збіжність до оптимального рішення.

Паралельний відпуск[ред. | ред. код]

Паралельний відпуск — це метод моделювання, спрямований на покращення динамічних властивостей моделювання фізичних систем методом Монте-Карло та методів Монте-Карло марковських ланцюгів (МКМЛ) загалом. Метод обміну копіями спочатку був розроблений Свендсеном[en][2], потім розширений Гейєром[3] і пізніше розроблений Джорджіо Парізі.[4][5] Сугіта та Окамото сформулювали молекулярно-динамічну версію паралельного відпуска:[6] це зазвичай відомо як молекулярна динаміка обміну репліками.

По суті, запускається N копій системи, випадково ініціалізованих, при різних температурах. Потім на основі критерію Метрополіса відбувається обмін конфігураціями при різних температурах. Ідея цього методу полягає в тому, щоб зробити конфігурації при високих температурах доступними для моделювання при низьких температурах і навпаки. Це призводить до дуже надійного ансамблю, який здатний відбирати як низькоенергетичні, так і високоенергетичні конфігурації. Таким чином, такі термодинамічні властивості, як питома теплоємність, яка, як правило, погано обчислюється в канонічному ансамблі, можуть бути обчислені з високою точністю.

Евристика та метаевристика[ред. | ред. код]

Докладніше: Метаевристика

Інші підходи включають евристичні стратегії пошуку в просторі пошуку більш-менш інтелектуальним способом, включаючи:

Підходи, засновані на методології поверхні відгуку[ред. | ред. код]

Див. також[ред. | ред. код]

Виноски[ред. | ред. код]

  1. Xiaopeng Luo (2018). Minima distribution for global optimization. arXiv:1812.03457.
  2. Swendsen RH and Wang JS (1986) Replica Monte Carlo simulation of spin glasses Physical Review Letters 57 : 2607—2609
  3. C. J. Geyer, (1991) in Computing Science and Statistics, Proceedings of the 23rd Symposium on the Interface, American Statistical Association, New York, p. 156.
  4. Marco Falcioni and Michael W. Deem (1999). A Biased Monte Carlo Scheme for Zeolite Structure Solution. J. Chem. Phys. 110 (3): 1754—1766. arXiv:cond-mat/9809085. Bibcode:1999JChPh.110.1754F. doi:10.1063/1.477812.
  5. David J. Earl and Michael W. Deem (2005) «Parallel tempering: Theory, applications, and new perspectives», Phys. Chem. Chem. Phys., 7, 3910
  6. Y. Sugita and Y. Okamoto (1999). Replica-exchange molecular dynamics method for protein folding. Chemical Physics Letters. 314 (1–2): 141—151. Bibcode:1999CPL...314..141S. doi:10.1016/S0009-2614(99)01123-9.
  7. Thacker, Neil; Cootes, Tim (1996). Graduated Non-Convexity and Multi-Resolution Optimization Methods. Vision Through Optimization.
  8. Hossein Mobahi, John W. Fisher III. On the Link Between Gaussian Homotopy Continuation and Convex Envelopes, In Lecture Notes in Computer Science (EMMCVPR 2015), Springer, 2015.
  9. Blake, Andrew; Zisserman, Andrew (17 березня 2003). Visual Reconstruction.
  10. Jonas Mockus (2013). Bayesian approach to global optimization: theory and applications. Kluwer Academic.

Список літератури[ред. | ред. код]

Детермінована глобальна оптимізація:

Моделювання відпалу:

Реактивна пошукова оптимізація:

  • Roberto Battiti, M. Brunato and F. Mascia, Reactive Search and Intelligent Optimization, Operations Research/Computer Science Interfaces Series, Vol. 45, Springer, November 2008. ISBN 978-0-387-09623-0

Стохастичних методи:

Паралельний відпуск:

Методи продовження:

Загальні міркування щодо розмірності області визначення цільової функції:

Посилання[ред. | ред. код]