Задача класифікації

Матеріал з Вікіпедії — вільної енциклопедії.
Перейти до: навігація, пошук

Задача класифіка́ції — формалізована задача, яка містить множину об'єктів (ситуацій), поділених певним чином на класи. Задана кінцева множина об'єктів, для яких відомо, до яких класів вони відносяться. Ця множина називається вибіркою. До якого класу належать інші об'єкти невідомо. Необхідно побудувати такий алгоритм, який буде здатний класифікувати довільний об'єкт з вихідної множини.

Класифікувати об'єкт — означає, вказати номер (чи назву) класу, до якого відноситься даний об'єкт.

Класифікація об'єкта — номер або найменування класу, що видається алгоритмом класифікації в результаті його застосування до даного конкретного об'єкту.

В математичній статистиці задачі класифікації називаються також задачами дискретного аналізу. В машинному навчанні завдання класифікації вирішується, як правило, за допомогою методів штучної нейронної мережі при постановці експеримента у вигляді навчання з учителем.

Існують також інші способи постановки експерименту — навчання без вчителя, але вони використовуються для вирішення іншого завдання — кластеризації або таксономії. У цих завданнях поділ об'єктів навчальної вибірки на класи не задається, і потрібно класифікувати об'єкти тільки на основі їх подібності. У деяких прикладних областях, і навіть у самій математичній статистці, через близькість завдань часто не відрізняють завдання кластеризації від завдання класифікації.

Деякі алгоритми для вирішення задач класифікації комбінують навчання з учителем і навчання без вчителя, наприклад, одна з версій нейронних мереж Кохонена - Мережі векторного квантування, яких навчають способом навчання з учителем.

Математичне формулювання завдання[ред.ред. код]

Нехай X~ — множина описів об'єктів, Y~ —множина номерів (чи назв) класів. Існує невідома цільова залежність- відображення y^{*}\colon X\to Y, значення якої відомі лише на елементах кінцевої навчальної вибірки X^m = \{(x_1,y_1),\dots,(x_m,y_m)\}. Потрібно побудувати алгоритм a\colon X\to Y, здатний класифікувати довільний об'єкт x \in X.

Імовірнісне формулювання завдання[ред.ред. код]

Загальнішим є імовірнісне формулювання завдання. Припускається, що множина пар «об'єкт, клас» X \times Y є ймовірнісним простором з невідомою ймовірнісною мірою \mathsf P. Є кінцева навчальна вибірка спостережень X^m = \{(x_1,y_1),\dots,(x_m,y_m)\}, згенерована згідно з ймовірнісною мірою \mathsf P. Необхідно побудувати алгоритм a\colon X\to Y, здатний класифікувати довільний об'єкт x \in X.

Простір характеристик[ред.ред. код]

Характеристикою називається відображення f\colon X\to D_f~, де D_f~ — множина допустимих значень характеристики. Якщо задані характеристики f_1,\dots,f_n~, то вектор {\mathbf x} = (f_1(x),\dots,f_n(x)) називається характеристичним описом об'єкта x\in X. Характеристики можна ототожнювати із самими об'єктами. При цьому множину X = D_{f_1}\times\dots\times D_{f_n} називають простором характеристик.

Залежно від множини  D_f характеристики поділяються на такі типи:

  • Бінарні характеристики: D_f=\{0,1\};
  • Номінальні характеристики:  D_f - кінцева множина;
  • Порядкові характеристики:  D_f - кінцева впорядкована множина;
  • Кількісні характеристики:  D_f - множина дійсних чисел.

Часто зустрічаються прикладні задачі з різнотипними характеристиками, для їх вирішення підходять далеко не всі методи.

Типи задач класифікації[ред.ред. код]

Типи вхідних даних[ред.ред. код]

  • Характеристичний опис — найпоширеніший випадок. Кожен об'єкт описується набором своїх характеристик, які називаютьсяознаками. Ознаки можуть бути числовими або нечисловими.
  • Матриця відстаней між об'єктами. Кожен об'єкт описується відстанями до всіх інших об'єктів навчальної вибірки. З цим типом вхідних даних працюють деякі методи, зокрема, метод найближчих сусідів, метод потенційних функцій.
  • Часовий ряд або сигнал є послідовність вимірів у часі. Кожен вимір може представлятися числом, вектором, а в загальному випадку — характеристичним описом досліджуваного об'єкта в цей час часу.
  • Зображення або відеоряд.
  • Зустрічаються і складніші випадки, коли вхідні дані представляються у вигляді графів, текстів, результатів запитів до бази даних, і т. д. Як правило, вони приводяться до першого або другого випадку шляхом попередньої обробки даних та вилучення характеристик.

Класифікацію сигналів та зображень називають також розпізнаванням образів.

Типи класів[ред.ред. код]

  • Двокласова класифікація. Найпростіший в технічному відношенні випадок, який служить основою для вирішення складніших завдань.
  • Багатокласова класифікація. Коли число класів досягає багатьох тисяч (наприклад, при розпізнаванні ієрогліфів або злитого мовлення), завдання класифікації стає істотно важчим.
  • Непересічні класи.
  • Пересічні класи. Об'єкт може належати одночасно до декількох класів.
  • Нечіткі класи. Потрібно визначати ступінь належності об'єкта кожному з класів, звичайно це дійсне число від 0 до 1.

Див. також[ред.ред. код]

Посилання[ред.ред. код]

Література[ред.ред. код]

  1. Айвазян С. А., Бухштабер В. М., Енюков И. С., Мешалкин Л. Д. Прикладная статистика: классификация и снижение размерности. — М.: Финансы и статистика, 1989.
  2. Вапник В. Н. Восстановление зависимостей по эмпирическим данным. — М.: Наука, 1979.
  3. Журавлев Ю. И., Рязанов В. В., Сенько О. В. «Распознавание». Математические методы. Программная система. Практические применения. — М.: Фазис, 2006. ISBN 5-7036-0108-8.
  4. Загоруйко Н. Г. Прикладные методы анализа данных и знаний. — Новосибирск: ИМ СО РАН, 1999. ISBN 5-86134-060-9.
  5. Паклин Н.Б., Орешков В.И. Бизнес-аналитика: от данных к знаниям (+ CD). -СПб: Питер, 2009. ISBN 978-5-49807-257-9
  6. Шлезингер М., Главач В. Десять лекций по статистическому и структурному распознаванию. — Киев: Наукова думка, 2004. ISBN 966-00-0341-2.
  7. Шаблон:Книга:The Elements of Statistical Learning
  8. Mitchell T. Machine Learning. — McGraw-Hill Science/Engineering/Math, 1997. ISBN 0-07-042807-7.