Машинное обучение вики
(Новая страница: «== Метрики == === Евклидова === <math>d(x,z) = \rho(x,z)=\sqrt{\sum_{i=1}^{D}(x^i - z^i)^2}</math> ====<math>L_p</math>==== <math>d(x,z) = \rho(…»)
Метки: Визуальный редактор apiedit
 
Нет описания правки
Метка: rte-source
 
(не показано 7 промежуточных версий 3 участников)
Строка 1: Строка 1:
  +
== Часто используемые метрики ==
== Метрики ==
 
   
 
=== Евклидова ===
 
=== Евклидова ===
 
<math>d(x,z) = \rho(x,z)=\sqrt{\sum_{i=1}^{D}(x^i - z^i)^2}</math>
 
<math>d(x,z) = \rho(x,z)=\sqrt{\sum_{i=1}^{D}(x^i - z^i)^2}</math>
   
====<math>L_p</math>====
+
=== <math>L_p</math> ===
 
<math>d(x,z) = \rho(x,z)=\sqrt[p]{\sum_{i=1}^{D}(x^i - z^i)^p}</math>
 
<math>d(x,z) = \rho(x,z)=\sqrt[p]{\sum_{i=1}^{D}(x^i - z^i)^p}</math>
   
 
=== Косинусная ===
 
=== Косинусная ===
<math>d(x,z) = \rho(x,z)=\frac{\left\langle x,z \right\rangle}{\left\Vert x\right\Vert \left\Vert z\right\Vert } = \frac{\sum_{i=1}^{D}(x^iz^i)}{\sqrt{\sum_{i=1}^{D}(x^i)^2} \sqrt{\sum_{i=1}^{D}(z^i)^2}}</math>
+
<math>d(x,z) = \rho(x,z)=\arccos{\frac{\left\langle x,z \right\rangle}{\left\Vert x\right\Vert \left\Vert z\right\Vert }} = \arccos{\frac{\sum_{i=1}^{D}(x^iz^i)}{\sqrt{\sum_{i=1}^{D}(x^i)^2} \sqrt{\sum_{i=1}^{D}(z^i)^2}}}</math>
  +
  +
Это метрика схожести, использующая тот факт, что <math>\left\langle x,z \right\rangle = \left\Vert x\right\Vert \left\Vert z\right\Vert cos(\alpha)</math>, где <math> \alpha </math> &mdash; это угол между <math>x</math> и <math>z</math>.
   
 
=== Жаккарда ===
 
=== Жаккарда ===
<math>d(A,B) = \rho(A,B)=\frac{\left| A \cap B \right|}{\left| A \cup B \right|}</math>
+
<math>d(A,B) = \rho(A,B)= 1 - \frac{\left| A \cap B \right|}{\left| A \cup B \right|}</math>
  +
  +
Это расстояние между множествами.
  +
  +
А также Китов просил доказать, почему она более устойчива к выбросам.
  +
  +
=== Расстояние Махалонобиса: ===
  +
[[Декоррелирующее преобразование (Whitening)|Расстояние Махалонобиса]]
  +
  +
== Параметризация метрики ==
  +
{{TODO}}Китов что-то рассказывал, но я рыба. Тут же было что-то про сглаживание Лапласа.
  +
  +
В лекциях я ничего про это не нашел.

Текущая версия от 01:26, 13 января 2017

Часто используемые метрики[]

Евклидова[]

[]

Косинусная[]

Это метрика схожести, использующая тот факт, что , где — это угол между и .

Жаккарда[]

Это расстояние между множествами.

А также Китов просил доказать, почему она более устойчива к выбросам.

Расстояние Махалонобиса:[]

Расстояние Махалонобиса

Параметризация метрики[]

Todo

Китов что-то рассказывал, но я рыба. Тут же было что-то про сглаживание Лапласа.

В лекциях я ничего про это не нашел.