2012-05-16 13 views

Odpowiedz

34

Jest rzeczywiście bardzo dobrym przykładem on Wikipedia:

W uproszczeniu, naiwne Bayesa klasyfikatora zakłada obecność (lub nieobecność) szczególnej cechy klasy jest związana z obecnością (lub brakiem) jakiejkolwiek innej funkcji, biorąc pod uwagę zmienną klasy. Na przykład, owoc może być uznany za jabłko, jeśli jest czerwony, okrągły i ma średnicę około 4 cali, nawet jeśli cechy te zależą od siebie nawzajem lub od istnienia innych cech, naiwny klasyfikator Bayesa uważa wszystkie te właściwości niezależnie przyczynić się do prawdopodobieństwa, że ​​ten owoc jest jabłko.

Zasadniczo, jest to „naiwne”, ponieważ to sprawia, że ​​założenia, które mogą lub nie mogą okazać się poprawne.

+5

Artykuł Wikipedii wyjaśnia to poprawnie, ale nie zgadzam się z tym, że "przyjmuje założenia, które mogą, ale nie muszą, być poprawne". Przy odpowiedniej ilości danych treningowych dobrze sprawdza się odfiltrowywanie nieistotnych parametrów. Część "naiwna" polega na tym, że nie bierze pod uwagę zależności między parametrami .. i dlatego może musieć spojrzeć na nadmiarowe dane. – Chip

6

Jeśli dane jest składa się z wektora cech X = {x1, x2, ... x10} i twoich etykiet klas Y = {y1, y2, .. y5} .Więc klasyfikator Bayesa identyfikuje prawidłową etykietę klasy jako taką, która maksymalizuje następujące formuła:

P (Y/X) = P (X/Y) * P (y) = P (x1, x2, ... x10/r) * P (y)

Tak dla, to nadal nie naiwny. Jednak ciężko jest obliczyć P (x1, x2, ... x10/Y), więc zakładamy, że funkcje są niezależne, tak nazywamy założenie Naive, dlatego zamiast tego otrzymujemy następującą formułę:

P (Y/X) = P (x1/r) * P (x2/y) * ... P (x10/r) * P (y)

2

nazywa się naiwny, ponieważ sprawia, że ​​założenie wszystkie atrybuty są od siebie niezależne. To założenie jest powodem, dla którego nazywa się to naiwnością, ponieważ w wielu rzeczywistych sytuacjach sytuacja ta nie pasuje. Mimo to klasyfikator działa bardzo dobrze w wielu rzeczywistych sytuacjach i ma porównywalną wydajność do neutralnych sieci i maszyn SVM w niektórych przypadkach (choć nie wszystkie).

0

Klasyfikacja, gdy znajdziemy wspólną dystrybucję, polega na tym, że odzwierciedla dane treningowe i jest bardzo trudna do obliczenia. Potrzebujemy więc czegoś, co generalizuje bardziej użytecznie.

naiwne modelu uogólnia silnie, że każda cecharozdziela się niezależnie od innych cech.

Naprawdę pomaga nie dbać o zależność między atrybutami w dużym stopniu.