Содержание
- 1 Гауссовский классификатор
- 2 Оценка параметров (по методу максимального правдоподобия) и их количество
- 3 Оценка апостериорной вероятности
- 4 Снижение числа параметров
- 5 Квадратичный дискриминантный анализ (Quadratic Discriminant Analysis (QDA)) и линейный дискриминантный анализ (или линейный дискриминант Фишера) (Linear Discriminant Analysis (LDA))
- 6 Практическое применение
- 7 Ссылки
Гауссовский классификатор[]
Основная идея — построить классификатор в предположении того, что функция
(так называемая функция правдоподобия, т.е. распределение объектов при фиксированном ответе ) известна для каждого класса и равна плотности многомерного нормального (гауссовского) распределения:
— матрица ковариации.
— вектор математических ожиданий.
— число объектов.
— размерность признакового пространства.
Таким образом, параметрами гауссовского классификатора являются априорные распределения
, вектора математических ожиданий и матрицы ковариации , заданные для каждого класса .Оценка параметров (по методу максимального правдоподобия) и их количество[]
— число объектов, относящихся к классу
параметров для оценки
Note:
— вектор длины . Всего классов центров параметров.параметров для оценки
Note:
— симметричная матрица необходимо задать только параметров. Таких матриц всего по количеству классов.Еще
параметров потребуется для того, чтобы задать все априорные распределения .Итого:
параметров содержит модель гауссовского классификатора без упрощающих предположений.Оценка апостериорной вероятности[]
Оценим логарифм апостериорной вероятности:
Дискриминантная функция (получаемая из последнего выражения после отбрасывания членов, не зависящих от класса
) имеет вид:
Снижение числа параметров[]
Серьезной проблемой гауссовского классификатора является большое число параметров, которые необходимо каким-то образом подбирать.
Есть несколько способов снизить число параметров:
- снизить размерность признакового пространства (например, по методу главных компонент);
- использовать предположение "наивного Байеса" о независимости признаков при условии класса, т.е. о диагональности матриц : ;
- использовать предположение о том, что матрицы ковариации для всех классов пропорциональны единичной: ;
- использовать предположение о том, что матрицы ковариации для всех классов одинаковы (этот метод при использовании первого частного случая для байесовского правила минимальной цены называется линейным дискриминантом Фишера (Linear Discriminant Analysis)): ;
- использовать предположение о том, что матрицы ковариации для всех классов пропорциональны некоторой матрице : .
Квадратичный дискриминантный анализ (Quadratic Discriminant Analysis (QDA)) и линейный дискриминантный анализ (или линейный дискриминант Фишера) (Linear Discriminant Analysis (LDA))[]
Получим явный вид разделяющих поверхностей в этих двух случаях.
Для этого приравняем дискриминантные функции двух классов и таким образом получим уравнение поверхности, разделяющей эти два класса.
Рассмотрим первый частный случай для байесовского правила минимальной цены: .
Тогда дискриминантная функция имеет вид:
Квадратичный дискриминантный анализ[]
Запишем уравнение поверхности:
Отсюда видно, что разделяющая поверхность имеет квадратичный вид относительно
.Линейный дискриминант Фишера[]
Продолжаем рассматривать первый частный случай для байесовского правила минимальной цены: .
Используем предположение о том, что матрицы ковариации для всех классов одинаковы:
.
Квадратично зависящие от
члены в этом случае сократятся, и получим:
Отсюда видно, что разделяющая поверхность имеет линейный вид относительно
.Практическое применение[]
- "Наивный Байес": являются диагональными.
- Метод главных компонент (PCA).
- Пропорциональность матриц ковариаций: .
- Линейный дискриминантный анализ Фишера: .