Машинное обучение вики
Метки: Визуальный редактор apiedit
Метки: Визуальный редактор apiedit
Строка 5: Строка 5:
   
 
== Бинарная классификация ==
 
== Бинарная классификация ==
Пусть объект <math>x</math> задается <math>D</math> признаками, то есть представим в виде вектора <math>x \in \mathbb{R}^D</math>, <math>y</math> &mdash; метка класса для объекта <math>x</math> (<math>y \in \{-1, +1\}</math>). Тогда линейным классификатором для разделяющей плоскости, заданной в пространстве признаков нормалью <math>w</math> и скаляром <math>w_0</math> будет следующий классификатор:{{Сомнения|Что непонятно? = Может, +w0? Неважно, конечно, но выглядит странно<br>У Китова вроде всегда брали с плюсом и 1 как доп.признак
+
Пусть объект <math>x</math> задается <math>D</math> признаками, то есть представим в виде вектора <math>x \in \mathbb{R}^D</math>, <math>y</math> &mdash; метка класса для объекта <math>x</math> (<math>y \in \{-1, +1\}</math>). Тогда линейным классификатором для разделяющей плоскости, заданной в пространстве признаков нормалью <math>w</math> и скаляром <math>w_0</math> будет следующий классификатор:{{Сомнения|Что непонятно? = Может, +w0? Неважно, конечно, но выглядит странно<br>У Китова вроде всегда брали с плюсом и 1 как доп.признак. ---абсолютно по барабану, +1 или -1, при обучении просто параметр w0 будет принимать разные по знаку значения (Костя)}}<math>a(x, w, w_0) = sign(w^T x - w_0)</math>.
- абсолютно по барабану, +1 или -1,
 
при обучении просто параметр w0 будет принимать
 
просто положительные или отрицательные значения (Костя)}}<math>a(x, w, w_0) = sign(w^T x - w_0)</math>.
 
   
 
Зачастую вводится дополнительный признак равный <math>-1</math>, так, что <math>x = (-1, x_1, x_2, \dots, x_D) \in \mathbb{R}^{D+1}</math>, а в качестве <math>w</math> берется вектор <math>(w_0, w_1, w_2, \dots, w_D)</math>. Тогда тот же классификатор можно представить в более компактном виде:
 
Зачастую вводится дополнительный признак равный <math>-1</math>, так, что <math>x = (-1, x_1, x_2, \dots, x_D) \in \mathbb{R}^{D+1}</math>, а в качестве <math>w</math> берется вектор <math>(w_0, w_1, w_2, \dots, w_D)</math>. Тогда тот же классификатор можно представить в более компактном виде:

Версия от 12:10, 12 января 2017

Sleep
Это незавершённая статья
Автор, вероятно, переобучился и отправился спать.
Вы можете помочь, экстраполировав местную информацию.

Линейный классификатор

Линейный классификатор — алгоритм классификации, основанный на построении линейной разделяющей поверхности. В случае двух классов разделяющей поверхностью является гиперплоскость, которая делит пространство признаков на два полупространства. В случае большего числа классов разделяющая поверхность кусочно-линейна.

Бинарная классификация

Пусть объект задается признаками, то есть представим в виде вектора , — метка класса для объекта (). Тогда линейным классификатором для разделяющей плоскости, заданной в пространстве признаков нормалью и скаляром будет следующий классификатор:

DANGER! Это место вызывает
сомнения или непонимание!

Может, +w0? Неважно, конечно, но выглядит странно
У Китова вроде всегда брали с плюсом и 1 как доп.признак. ---абсолютно по барабану, +1 или -1, при обучении просто параметр w0 будет принимать разные по знаку значения (Костя)

Hard

.

Зачастую вводится дополнительный признак равный , так, что , а в качестве берется вектор . Тогда тот же классификатор можно представить в более компактном виде:

.

Многоклассовая классификация

Для случая нескольких классов (, где — множество всех меток классов) вводится плоскостей, а классификатор определяется так:

.

Где — матрица, состоящая из векторов ().

По факту — это вектор, задающий разделяющую плоскость между классом с меткой и всеми остальными, при классификации алгоритм выбирает тот класс, принадлежность объекта к которому наиболее вероятна (то есть максимизирует отступ для этого объекта).

для бинарной классификации и для многоклассовой подбираются по принципу минимизации эмпирического риска.