Hanyalah sebuah coretan

Bayesian Learning [Episode 1]

Bismillahirrahmanirrahim . . .

Sebelumnya maaf buat temen-temen sekalian , note ini tentang salah satu metode yang digunakan dalam Artificial Intelligence a.k.a kecerdasan buatan . salah satu cabang departemen dari bidang IT yang ane ambil sekarang sebagai jurusan di kuliah ane , jadi maaf kalo ane langsung loncat tanpa njelasin sebenernya Artificial Intelligence dan Machine Learning ini apa , karena kalo ana njelasin dari awal bakal panjaaang banget.

Singkatnya Bayesian learning ini adalah salah satu classification method yang digunakan dalam Machine Learning . n kalo antum sekalian masih belum faham AI itu apa dan ML (Machine Learning ) itu apa , bisa cari tau aja dulu..wehehhe..maaf sebesar besarnya. , sekarang mari kita lanjut aja langsung ke pembahasan..yuuuukkkk…

Sebenernya , apa sih Bayesian Learning itu

Jaman sekarang kan , kita hidup di jaman dimana komunikasi itu sangat penting sekali. Dan salah satu media yang paling mantep buat kominikasi ini dengan pake computer graphics , animation , game , n segala macem. sebagai permisalan, Nah kalo misalnya di animasi or modeling , kita pengen nge model or mbuat simulasi kota Surabaya misalnya. Kalo kita mau nge model satu per satu elemen yang ada di kota suarabaya, kan ga mungkin (“sapa yang mau , nge model 3d satu persatu bangunan sebegitu banyaknya di Surabaya) .

Nah untungnya , ada metodologi yang disebut dengan Bayesian reasoning. Bayesian reasoning ini menyediakan suatu kesatuan dan penyelesaian secara natural terhadap banyak kesulitan pada data modeling. Bayesian reasoning ini , adalah sebuah model untuk logika dalam wujud ketidakpastian ( logic in the presence of uncertainty).

Kalo om Wikipedia ngomong : “The Bayesian interpretation of probability can be seen as an extension of logic that enables reasoning with uncertain statements” alias kalo bahasa indonya

“penafsiran dari peluang Bayesian bisa dilihat sebagai suatu perlusasan (or kaya plug in gitu) dari logika yang memungkinkan kita melakukan reasoning dengan pernyataan yang ga pasti”

Kalau misalnya ada pertanya’an : “kenapa sih kok kita mesti pake bayes reasoning ini” . jawabanya adalah karena di dunia nyata knowledge dan data kita itu ga komplit,noisy . nah dengan adanya Bayesian ini , bisa melakukan decision making dalam ketidakpastian.

Keuntungan dari Bayesian reasoning ini adalah :

1.       Principled modeling of uncertainty ( pemodelan ketidakpastian yang berasas)

2.       General purpose models for unstructured data ( pemodelan umum untuk data yang tidak berstruktur)

3.       Effective algorithms for data fitting and analysis under uncertainty ( algol yang efektif untuk pencocokan data dan analysis berdasarkan ketidakpastian)

Nah disini ane akan kasi contoh tentang konsep dasar dari probabilistic reasoning and learning , biar kita bisa mengilustrasikan konsep ini.

Classical Logic

Cara paling simpel untuk mendeskripsikan reasoning itu dengan menggunakan classical logic.classical logic ini dibuat ama jid aristoteles.di dalam classical logic ini ada pernyataan yang bisa true atau false,dan ada rule yang bisa menentukan nilai kebenaran. Contohnya :

A=”becak ku dicuri”

B=”becak ku ga ada di tempat parkir pas ane inget tempat markir sebelumnya”

Kalo missal kita buat A->B yaitu yang hasilnya true (jika becak ku dicuri,maka becak ku pasti ga ada ditempat parker).

Nah dengan cara ini classical logic mendeskripsikan gimana manusia itu mbuat reasoning. Tapi, classical logic ini ada masalahnya , yaitu dia beranggapan kalo semua knowledge itu absolute alias pasti , padahal ga kaya gitu di dunia nyata yang fana yang penuh dengan ketidakpastian ini  (mulai,dramatis deh..hehe).

Nah oleh dikarenakan dan sebab itu,maka kita tau kalo dunia ini GA PASTI !!!. bisa aja tu bejak hilang gara2 kena gusur ama satpol PP , ga mesti dicuri kan? Makanya kaya ane bilang,dunia itu ga pasti..ehehehe,,cukup2

Nah, contoh lain yang ga kalah pentingnya tentang ketidak pastian ini, pas agan agan sekalian ini ketemu ama temen baru. Missal ada satu orang,sebut saja bambang , tampangnya serem,badanya bahu semua (maksutnya otot semua,ga nyambung ya?) , and celananya ada rantai nya.nah,pasti ente bakal nganggep kalo orang ini preman , dari pengalaman ente sebelumnya , kalo preman itu penampilanya ya kaya gitu.jadi ceritanya ente nganggep ni orang preman,padahal bisa aja dia itu artis yang sedang syuting jadi preman.oleh karena itu kita mesti bisa menilai orang berdasarkan informasi yang ga komplit

Nah sekarang , sebelum kita melangkah lebih jauh , mari kita review kembali tentang teori dasar probability….mariik..yuuuk (eh sorry gini terus bukan karena eke bencong ye,wehehe)

Probability Theory

Probabilistic Classification

Missal Y jadi random variable untuk kelas , nilainya {y1,,y2,,.,ym}

Missal X jadi random variable (yang mendeskripsikan instance yang terdiri dari vector

<x1,x2,..xn>) missal Xk itu jadi possible value untuk X dan Xii jadi possible value untuk X

Untuk classification kita harus menghitung

P(Y=yi| X=xk) for i=1…m

Baye’s Theorem : Basics

maksut dari priori dan posteriori knowldge

Sebelum melangkah lebih jauh,kita mesti faham dulu apa itu priori dan posteriori knowledge.

Sebenernya kata ini digunakan dalam bidang filosofi, cuman dalam AI kita juga pake istilah ini.

Priori (prior to) = adalah knowledge atau dasar kebenaran yang independent dari pengalaman alias fakta (contohnya : semua anak SMP belum nikah) .

Posteriori (subsequent to) = adalah knowledge yang berkaitan dengan pengalaman (contoh :beberapa anak SMP bahagia). Nah priori ini akan menimbulkan pengalaman or experience , yang nanti akan digunakan oleh posteriori knowledge

Basic of bayes’s theorem

Misal X itu data sample (class label masih unknown alias belom tau)

Misal H itu hiptosesis kalo X itu kelasnya adalah C

Classification or proses klasifikasi (pengelompokan) itu untuk menentukan

P(H|X).probability hipotesis akan menjadi benar jika diberi sampel data X

[contoh: what is the probability that X will buy computer,if it’s given X]

P(H) (prior probability) , probability awal [Contoh : X will buy computer ]

P(X|H) (posteriori probability) , probability dari pengamatan sample X , jika diberi hypothesis H

[Contoh: given X will buy computer , the probability that X is 31..40 ,x has medium income]

Bayes optimal classifier

Goal dari Bayesian learning : kemungkinan yang paling besar dari hipotesis kalo di kasi training data (maximum posteriori hypothesis-MAP) hmap

Bayes Optimal Classification

Classification yang memiliki kemungkinan yang paling besar , dari sebuah instance

Itu bisa didapat dengan cara menggabungkan prediksi dari semua hipotesis yang terdapat nilai posteriorinya masing-masing.

Misal , set of value for classification is from set V (each possible value is vj)

Kemungkinan bahwa vadalah classification yang tepat buat instance baru tersebut adalah:

Contoh dalam perhitunganya adalah , di bawah ini niih :

nah itu penjelasanya  dalam episode 1 ini ,ahahaha..kaya sinetron aja . udah sampe sini kita napas dulu ,kita lanjut ke episode 2 yang berisi tentang penjelasan lebih jauh tentang Naive bayesian classifier ama contoh2 perhitunganya sekali.. , ya kher.. laanjuuttt…

Advertisements

One response

  1. anonymous

    Where the episode 2 ?

    May 30, 2015 at 10:32 am

Leave a Reply

Fill in your details below or click an icon to log in:

WordPress.com Logo

You are commenting using your WordPress.com account. Log Out / Change )

Twitter picture

You are commenting using your Twitter account. Log Out / Change )

Facebook photo

You are commenting using your Facebook account. Log Out / Change )

Google+ photo

You are commenting using your Google+ account. Log Out / Change )

Connecting to %s