Теорія наближень

Матеріал з Вікіпедії — вільної енциклопедії.
Перейти до навігації Перейти до пошуку

Тео́рія набли́жень — розділ математики, що вивчає питання про можливість наближеного подання одних математичних об'єктів іншими, як правило простішої природи, а також питання про оцінки похибки, що вноситься при цьому. Значна частина теорії наближення стосується наближення одних функцій іншими, проте є й результати, які стосуються абстрактних векторних або топологічних просторів.

Теорія наближень активно використовується при побудові великої кількості алгоритмів, а також при стисненні даних.

Приклади[ред. | ред. код]

  • Замість обчислення точного значення функції при малих можна скористатися самим , тобто . Що більшим буде , то більшою буде похибка такого наближення.
  • Щоби запам'ятати деяку функцію, можна запам'ятати її значення в деяких точках (кажуть: на ґратці), а в інших точках обчислювати її за якоюсь інтерполяційною формулою. Питання про оптимальний вибір (для конкретної функції або для функцій з якогось класу) ґратки і формули відноситься якраз до теорії наближення.