Машинное обучение вики
SSerov (обсуждение | вклад)
Метки: Визуальный редактор apiedit
SSerov (обсуждение | вклад)
Метки: Визуальный редактор apiedit
Строка 6: Строка 6:
   
 
<math>
 
<math>
y \in {1, 2, \dots, C}.
+
y \in \{1, 2, \dots, C\}.
 
</math>
 
</math>
   

Версия от 22:42, 13 января 2017

Гауссовский классификатор

Основная идея — построить классификатор в предположении того, что функция (так называемая функция правдоподобия, т.е. распределение объектов при фиксированном ответе ) известна для каждого класса и равна плотности многомерного нормального (гауссовского) распределения:

— матрица ковариации.

— вектор математических ожиданий.

— число объектов.

— размерность признакового пространства.

Таким образом, параметрами гауссовского классификатора являются априорные распределения , вектора математических ожиданий и матрицы ковариации , заданные для каждого класса .

Оценка параметров (по методу максимального правдоподобия) и их количество

Семинар Соколова, 9 – 10

— число объектов, относящихся к классу

параметров для оценки

Note: — вектор длины . Всего классов центров параметров.

параметров для оценки

Note: — симметричная матрица необходимо задать только параметров и значений на диагонали, а это потребует параметров. Таких матриц всего по количеству классов.

Еще параметров потребуется для того, чтобы задать все априорные распределения .

Итого: параметров содержит модель гауссовского классификатора без упрощающих предположений.

Оценка апостериорной вероятности

Оценим логарифм апостериорной вероятности:

Дискриминантная функция (получаемая из последнего выражения после отбрасывания членов, не зависящих от класса ) имеет вид:

Снижение числа параметров

Серьезной проблемой гауссовского классификатора является большое число параметров, которые необходимо каким-то образом подбирать.

Есть несколько способов снизить число параметров:

  • снизить размерность признакового пространства (например, по методу главных компонент);
  • использовать предположение "наивного Байеса" о независимости признаков при условии класса, т.е. о диагональности матриц : ;
  • использовать предположение о том, что матрицы ковариации для всех классов пропорциональны единичной: ;
  • использовать предположение о том, что матрицы ковариации для всех классов одинаковы (этот метод называется линейным дискриминантом Фишера (Linear Discriminant Analysis)): ;
  • использовать предположение о том, что матрицы ковариации для всех классов пропорциональны некоторой матрице : .

Квадратичный дискриминантный анализ (Quadratic Discriminant Analysis (QDA)) и линейный дискриминантный анализ (или линейный дискриминант Фишера) (Linear Discriminant Analysis (LDA))

Получим явный вид разделяющих поверхностей в этих двух случаях.

Для этого приравняем дискриминантные функции двух классов и таким образом получим уравнение поверхности, разделяющей эти два класса.


Рассмотрим первый частный случай для байесовского правила минимальной цены: .

Тогда дискриминантная функция имеет вид:

Квадратичный дискриминантный анализ:

Запишем уравнение поверхности:

Отсюда видно, что разделяющая поверхность имеет квадратичный вид относительно .

Линейный дискриминант Фишера:

Используем предположение о том, что матрицы ковариации для всех классов одинаковы: .

Квадратично зависящие от члены в этом случае сократятся, и получим:

Отсюда видно, что разделяющая поверхность имеет линейный вид относительно .

Практическое применение

Ссылки

Quadratic discriminant analysis, слайды 2-16

Лекции Китова, слайды 14-21