Bayesova věta

Bayes umí kouzlit!

Přemýšleli jste někdy, jak se počítače o lidech učí?

Příklad:

Hledání na internetu pro „filmové šněrování obuvi“ přináší „Zpět do budoucnosti“

Sledoval vyhledávač film? Ne, ale z mnoha dalších vyhledávání ví, co lidé pravděpodobně hledají.

A vypočítá pravděpodobnost pomocí Bayesovy věty.

Bayesova věta je způsob, jak najít pravděpodobnost, když známe určité další pravděpodobnosti.

Vzorec je:

P (A | B) = P (A) P (B | A) P (B)

Což nám říká: jak často se stane A vzhledem k tomu, že se stane B, napsáno P (A | B),
Když víme: jak často se B stane, když se stane A, napsáno P (B | A)
a jak pravděpodobné je A samo o sobě, napsané P (A)
a jaká je pravděpodobnost B sama o sobě, napsané P (B)

Řekněme, že P (oheň) znamená, jak často je oheň, a P (kouř), jak často jsme vidět kouř, pak:

P (Fire | Smoke) znamená, jak často je oheň, když vidíme kouř
P (Smoke | Fire) znamená, jak často můžeme vidět kouř, když je oheň

Takže vzorec nám říká „dopředu“ P (Fire | Smoke), když známe „zpět“ P (Smoke | Fire)

Jen 4 čísla

Představte si 100 lidí na večírku a zjistěte, kolik nosí růžové nebo ne, a pokud je to muž, či nikoli, a získejte tato čísla:

Bayesova věta je založena pouze na těchto 4 číslech!

Pojďme udělat nějaké součty:

A vypočítáme několik pravděpodobností:

A pak dorazí štěně! Takové roztomilé štěně.

Ale všechna vaše data jsou roztržena! Přežijí pouze 3 hodnoty:

  • P (muž) = 0,4,
  • P (růžový) = 0,25 a
  • P (růžový | muž) = 0,125

Dokážete objevit P (Man | Pink)?

Představte si, že růžově oblečený host zanechává peníze … byl to muž? Na tuto otázku můžeme odpovědět pomocí Bayesovy věty:

P (Man | Pink) = P (Man) P (Pink | Man) P (Pink)

P (Man | Pink ) = 0,4 × 0,1250,25 = 0,2

Poznámka: pokud bychom ještě měli nezpracovaná data, mohli bychom vypočítat přímo 525 = 0,2

Být obecný

Proč to funguje?

Pojďme nahradit čísla písmeny:

Podívejme se nyní na pravděpodobnosti. Bereme tedy některé poměry:

  • celková pravděpodobnost „A“ je P (A) = s + ts + t + u + v
  • pravděpodobnost „B daného A“ je P ( B | A) = ss + t

A poté je znásobte takto:

Nyní to udělejme znovu, ale použijme P (B) a P (A | B):

Oba způsoby, jak získat stejný výsledek ss + t + u + v

Takže můžeme vidět, že:

P (B) P (A | B) = P (A) P ( B | A)

Pěkné a symetrické to není?

Ve skutečnosti to musí být symetrické, protože můžeme vyměňovat řádky a sloupce a získat stejný levý horní roh.

A je to také Bayes Fo rmula … jednoduše rozdělte obě strany P (B):

P (A | B) = P (A) P (B | A) P (B)

Zapamatování

Nejprve si pomyslete na „AB AB AB“, pak je nezapomeňte seskupit jako: „AB = A BA / B“

P (A | B) = P (A) P (B | A) P (B)

Kočičí alergie?

Jedním ze slavných použití Bayesovy věty jsou falešné pozitivy a falešné negativy.

Pro ty máme dva možné případy „A“, například Pass / Fail (nebo Yes / No atd.)

Příklad: Alergie nebo ne?

Hunter říká, že je svědivá. Existuje test na alergii na kočky, ale tento test není vždy správný:

  • U lidí, kteří alergii skutečně mají, je v testu 80% případů uvedeno „Ano“
  • U lidí, kteří nemají alergii, test říká „Ano“ 10% případů („falešně pozitivní“)

Pokud má alergii 1% populace a Hunterův test říká „Ano“, jaké jsou šance, že Hunter skutečně má alergii?

Chceme znát šanci mít alergii, když test řekne „Ano“, písemné P (Alergie | Ano)

Pojďme získat náš vzorec:

P (Alergie | Ano) = P (Alergie) P (Ano | Alergie) P (Ano)

Ach ne! Nevíme, jaká je obecná pravděpodobnost, že test řekne „Ano“ …

… ale můžeme to vypočítat sečtením těch, kteří mají alergii, a těch, kteří nemají alergii:

  • 1% má alergii a test uvádí „Ano“ u 80% z nich
  • 99% nemá alergii a test uvádí „Ano“ u 10% je

Doplníme to:

P (Ano) = 1% × 80% + 99% × 10% = 10,7%

Což znamená, že přibližně 10,7% populace získá výsledek „Ano“.

Takže nyní můžeme dokončit náš vzorec:

P (Alergie | Ano) = 1% × 80% 10,7% = 7.48%

P (Alergie | Ano) = přibližně 7%

Jedná se o stejný výsledek, jaký jsme dostali u falešných pozitiv a falešných negativů.

Ve skutečnosti jsme umí napsat speciální verzi Bayesova vzorce jen pro takové věci:

P (A | B) = P (A) P (B | A) P (A) P (B | A) + P (ne A) P (B | ne A)

„A“ Se třemi (nebo více) případy

Právě jsme viděli „A“ se dvěma případy (A a ne A), o které jsme se postarali ve spodním řádku.

Když má „A“ 3 nebo více případů, zahrneme je všechny do spodního řádku:

P (A1 | B ) = P (A1) P (B | A1) P (A1) P (B | A1) + P (A2) P (B | A2) + P (A3) P (B | A3) + … atd

Nyní zpět k vyhledávačům.

Vyhledávače tuto myšlenku využívají a hodně ji rozšiřují (plus některé další triky).

Dělá to vypadají, že dokážou přečíst vaši mysl!

Lze je také použít pro poštovní filtry, služby doporučení hudby a další.

Napsat komentář

Vaše e-mailová adresa nebude zveřejněna. Vyžadované informace jsou označeny *