Bayes umí kouzlit!
Přemýšleli jste někdy, jak se počítače o lidech učí?
Příklad:
Hledání na internetu pro „filmové šněrování obuvi“ přináší „Zpět do budoucnosti“
Sledoval vyhledávač film? Ne, ale z mnoha dalších vyhledávání ví, co lidé pravděpodobně hledají.
A vypočítá pravděpodobnost pomocí Bayesovy věty.
Bayesova věta je způsob, jak najít pravděpodobnost, když známe určité další pravděpodobnosti.
Vzorec je:
P (A | B) = P (A) P (B | A) P (B)
Což nám říká: | jak často se stane A vzhledem k tomu, že se stane B, napsáno P (A | B), | |
Když víme: | jak často se B stane, když se stane A, napsáno P (B | A) | |
a jak pravděpodobné je A samo o sobě, napsané P (A) | ||
a jaká je pravděpodobnost B sama o sobě, napsané P (B) |
Řekněme, že P (oheň) znamená, jak často je oheň, a P (kouř), jak často jsme vidět kouř, pak:
P (Fire | Smoke) znamená, jak často je oheň, když vidíme kouř
P (Smoke | Fire) znamená, jak často můžeme vidět kouř, když je oheň
Takže vzorec nám říká „dopředu“ P (Fire | Smoke), když známe „zpět“ P (Smoke | Fire)
Jen 4 čísla
Představte si 100 lidí na večírku a zjistěte, kolik nosí růžové nebo ne, a pokud je to muž, či nikoli, a získejte tato čísla:
Bayesova věta je založena pouze na těchto 4 číslech!
Pojďme udělat nějaké součty:
A vypočítáme několik pravděpodobností:
A pak dorazí štěně! Takové roztomilé štěně.
Ale všechna vaše data jsou roztržena! Přežijí pouze 3 hodnoty:
- P (muž) = 0,4,
- P (růžový) = 0,25 a
- P (růžový | muž) = 0,125
Dokážete objevit P (Man | Pink)?
Představte si, že růžově oblečený host zanechává peníze … byl to muž? Na tuto otázku můžeme odpovědět pomocí Bayesovy věty:
P (Man | Pink) = P (Man) P (Pink | Man) P (Pink)
P (Man | Pink ) = 0,4 × 0,1250,25 = 0,2
Poznámka: pokud bychom ještě měli nezpracovaná data, mohli bychom vypočítat přímo 525 = 0,2
Být obecný
Proč to funguje?
Pojďme nahradit čísla písmeny:
Podívejme se nyní na pravděpodobnosti. Bereme tedy některé poměry:
- celková pravděpodobnost „A“ je P (A) = s + ts + t + u + v
- pravděpodobnost „B daného A“ je P ( B | A) = ss + t
A poté je znásobte takto:
Nyní to udělejme znovu, ale použijme P (B) a P (A | B):
Oba způsoby, jak získat stejný výsledek ss + t + u + v
Takže můžeme vidět, že:
P (B) P (A | B) = P (A) P ( B | A)
Pěkné a symetrické to není?
Ve skutečnosti to musí být symetrické, protože můžeme vyměňovat řádky a sloupce a získat stejný levý horní roh.
A je to také Bayes Fo rmula … jednoduše rozdělte obě strany P (B):
P (A | B) = P (A) P (B | A) P (B)
Zapamatování
Nejprve si pomyslete na „AB AB AB“, pak je nezapomeňte seskupit jako: „AB = A BA / B“
P (A | B) = P (A) P (B | A) P (B)
Kočičí alergie?
Jedním ze slavných použití Bayesovy věty jsou falešné pozitivy a falešné negativy.
Pro ty máme dva možné případy „A“, například Pass / Fail (nebo Yes / No atd.)
Příklad: Alergie nebo ne?
Hunter říká, že je svědivá. Existuje test na alergii na kočky, ale tento test není vždy správný:
- U lidí, kteří alergii skutečně mají, je v testu 80% případů uvedeno „Ano“
- U lidí, kteří nemají alergii, test říká „Ano“ 10% případů („falešně pozitivní“)
Pokud má alergii 1% populace a Hunterův test říká „Ano“, jaké jsou šance, že Hunter skutečně má alergii?
Chceme znát šanci mít alergii, když test řekne „Ano“, písemné P (Alergie | Ano)
Pojďme získat náš vzorec:
P (Alergie | Ano) = P (Alergie) P (Ano | Alergie) P (Ano)
Ach ne! Nevíme, jaká je obecná pravděpodobnost, že test řekne „Ano“ …
… ale můžeme to vypočítat sečtením těch, kteří mají alergii, a těch, kteří nemají alergii:
- 1% má alergii a test uvádí „Ano“ u 80% z nich
- 99% nemá alergii a test uvádí „Ano“ u 10% je
Doplníme to:
P (Ano) = 1% × 80% + 99% × 10% = 10,7%
Což znamená, že přibližně 10,7% populace získá výsledek „Ano“.
Takže nyní můžeme dokončit náš vzorec:
P (Alergie | Ano) = 1% × 80% 10,7% = 7.48%
P (Alergie | Ano) = přibližně 7%
Jedná se o stejný výsledek, jaký jsme dostali u falešných pozitiv a falešných negativů.
Ve skutečnosti jsme umí napsat speciální verzi Bayesova vzorce jen pro takové věci:
P (A | B) = P (A) P (B | A) P (A) P (B | A) + P (ne A) P (B | ne A)
„A“ Se třemi (nebo více) případy
Právě jsme viděli „A“ se dvěma případy (A a ne A), o které jsme se postarali ve spodním řádku.
Když má „A“ 3 nebo více případů, zahrneme je všechny do spodního řádku:
P (A1 | B ) = P (A1) P (B | A1) P (A1) P (B | A1) + P (A2) P (B | A2) + P (A3) P (B | A3) + … atd
Nyní zpět k vyhledávačům.
Vyhledávače tuto myšlenku využívají a hodně ji rozšiřují (plus některé další triky).
Dělá to vypadají, že dokážou přečíst vaši mysl!
Lze je také použít pro poštovní filtry, služby doporučení hudby a další.