„Teorema Bayes

Bayes poate face magie!

Te-ai întrebat vreodată cum învață computerele despre oameni?

Exemplu:

O căutare pe internet a „șireturilor de pantofi automate de film” afișează „Înapoi la viitor”

Motorul de căutare a urmărit filmul? Nu, dar știe din multe alte căutări ce caută probabil oamenii.

Și calculează această probabilitate folosind „Teorema Bayes”.

Bayes „Teorema este o modalitate de a găsi o probabilitate atunci când știm anumite alte probabilități.

Formula este:

P (A | B) = P (A) P (B | A) P (B)

Ceea ce ne spune: cât de des se întâmplă A având în vedere că se întâmplă B, scris P (A | B),
Când știm: cât de des se întâmplă B având în vedere că se întâmplă A, scris P (B | A)
și cât de probabil este A singur, scris P (A)
și cât de probabil este B singur, scris P (B)

Să spunem că P (Foc) înseamnă cât de des este foc și P (Fum) înseamnă cât de des vezi fum, atunci:

P (Foc | Fum) înseamnă cât de des este foc când putem vedea fum
P (Fum | Foc) înseamnă cât de des putem vedea fum când există foc

Deci, formula ne spune „înainte” P (Foc | Fum) când știm „înapoi” P (Fum | Foc)

Doar 4 numere

Imaginați-vă 100 de persoane la o petrecere și vă spuneți câți poartă roz sau nu, și dacă este bărbat sau nu, și obțineți aceste numere:

Teorema Bayes „se bazează doar pe aceste 4 numere!

Să facem câteva totaluri:

Și calculăm câteva probabilități:

Și apoi ajunge catelul! Un cățeluș atât de drăguț.

Dar toate datele tale sunt rupte! Doar 3 valori supraviețuiesc:

  • P (Man) = 0,4,
  • P (Roz) = 0,25 și
  • P (Roz | Om) = 0.125

Poți să descoperi P (Man | Pink)?

Imaginează-ți că un oaspete roz poartă bani în urmă … a fost bărbat? Putem răspunde la această întrebare folosind „Teorema Bayes:

P (Man | Pink) = P (Man) P (Pink | Man) P (Pink)

P (Man | Pink ) = 0,4 × 0,1250,25 = 0,2

Notă: dacă am avea încă datele brute am putea calcula direct 525 = 0,2

Fiind general

De ce funcționează?

Să înlocuim numerele cu litere:

Acum să analizăm probabilitățile. Deci, luăm câteva rapoarte:

  • probabilitatea generală a „A” este P (A) = s + ts + t + u + v
  • probabilitatea „B dat A” este P ( B | A) = ss + t

Și apoi înmulțiți-le astfel:

Acum să facem asta din nou, dar să folosim P (B) și P (A | B):

Ambele căile obțin același rezultat al ss + t + u + v

Deci putem vedea că:

P (B) P (A | B) = P (A) P ( B | A)

Frumos și simetric nu este?

De fapt, trebuie să fie simetric, deoarece putem schimba rânduri și coloane și putem obține același colț din stânga sus.

Și este, de asemenea, Bayes Fo rmula … doar împarte ambele părți la P (B):

P (A | B) = P (A) P (B | A) P (B)

Amintirea

Mai întâi gândiți-vă la „AB AB AB”, apoi amintiți-vă să o grupați astfel: „AB = A BA / B”

P (A | B) = P (A) P (B | A) P (B)

Alergia la pisici?

Una dintre cele mai cunoscute utilizări ale teoremei Bayes este falsul pozitiv și falsul negativ.

Pentru aceștia avem două cazuri posibile pentru „A”, cum ar fi Pass / Fail (sau Da / Nu etc)

Exemplu: Alergie sau nu?

Hunter spune că este mâncărime. Există un test pentru alergia la pisici, dar acest test nu este întotdeauna corect:

  • Pentru persoanele care chiar au alergie, testul spune „Da” 80% din timp
  • Pentru persoanele care nu au alergie, testul spune „Da” 10% din timp („fals pozitiv”)

Dacă 1% din populație are alergie , iar testul lui Hunter spune „Da”, care sunt șansele ca Hunter să aibă cu adevărat alergie?

Vrem să știm șansa de a avea alergie atunci când testul spune „Da”, scris P (Alergie | Da)

Să primim formula noastră:

P (Alergie | Da) = P (Alergie) P (Da | Alergie) P (Da)

Oh, nu! Nu știm care este șansa generală ca testul să spună „Da” …

… dar o putem calcula adăugând cele cu și cele fără alergie:

  • 1% au alergie, iar testul spune „Da” la 80% dintre ei
  • 99% nu au alergie și testul spune „Da” la 10% din le

Să adăugăm:

P (Da) = 1% × 80% + 99% × 10% = 10,7%

Ceea ce înseamnă că aproximativ 10,7% din populație va obține un rezultat „Da”.

Deci, acum putem completa formula noastră:

P (Alergie | Da) = 1% × 80% 10,7% = 7.48%

P (Alergie | Da) = aproximativ 7%

Acesta este același rezultat pe care l-am obținut la Fals Pozitivi și Fals Negativi.

De fapt, noi poate scrie o versiune specială a formulei Bayes doar pentru lucruri de genul acesta:

P (A | B) = P (A) P (B | A) P (A) P (B | A) + P (nu A) P (B | nu A)

„A” cu trei (sau mai multe) cazuri

Tocmai am văzut „A” cu două cazuri (A și nu A), de care am avut grijă în linia de jos.

Când „A” are 3 sau mai multe cazuri, le includem pe toate în linia de jos:

P (A1 | B ) = P (A1) P (B | A1) P (A1) P (B | A1) + P (A2) P (B | A2) + P (A3) P (B | A3) + … etc

Acum, înapoi la Motoarele de căutare.

Motoarele de căutare iau această idee și o escaladează mult (plus câteva alte trucuri).

arată că îți pot citi mintea!

Poate fi folosit și pentru filtre de e-mail, servicii de recomandare muzicală și multe altele.

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *