Tuesday, March 16, 2010

Multilayer Perceptron dengan Ms. Excel

Tugas Tgl Tugas Tgl Selesai
Perbaikan Tugas 2 11 Maret 2010 16 Maret 2010

Nama NPM TUGAS
Dwi Ferdiana
0415031047
Mencari bahan, memasukan ke blog
Anisa Ulya D
0855031005
Mencari bahan, memasukan ke blog
Yuly Indriani
0815031097
Mencari bahan, memasukan ke blog
Novia Utami P
0815031077
Mencari bahan, memasukan ke blog



Tuesday, March 9, 2010

Single Layer Perceptron dengan Ms. Excel

Tugas Tgl Tugas Tgl Selesai
2 18 Februari 2010 9 Maret 2010

Nama NPM TUGAS
Dwi Ferdiana
0415031047
Mencari bahan, memasukan ke blog
Anisa Ulya D
0855031005
Mencari bahan, memasukan ke blog
Yuly Indriani
0815031097
Mencari bahan, memasukan ke blog
Novia Utami P
0815031077
Mencari bahan, memasukan ke blog



Wednesday, March 3, 2010

Jaringan Syaraf Tiruan oleh Bp. Agus Trisanto Ph.D

Jaringan Syaraf Tiruan

Jaringan syaraf tiruan (JST) atau Artificial Neural Network (ANN) adalah suatu model matematik atau komputasi untuk mensimulasikan struktur dan fungsi dari jaringan syaraf dalam otak.
Terdiri dari:
- Node atau unit pemroses (penjumlah dan fungsi aktivasi)
- weight/ bobot yang dapat diatur
- Masukan dan Keluaran
- Sifat : Adatif
- Mampu belajar
- Nonlinear


Biological Neural Network




Jaringan Syaraf Tiruan (JST)










Model Neuron Tanpa bias













Model Neuron dengan bias













Neuron Sederhana












Model Matematis

X=input/masukan i= banyaknya input
W=bobot/weight

Keluaran Penjumlah
n = sigma pi.wi
(Jumlah semua Input(pi) dikali bobot (wi)

Output/Keluaran Neuron:
a = f(n);
f=fungsi aktivasi

Fungsi Aktivasi

Beberapa fungsi aktivasi [a=f(n)]

- Hardlimit function





- Linear Function

a = n

- Sigmoid Function

a = 1 /( 1 + e^-n )














Kegunaan Aktivasi

- Untuk pengambilan keputusan biasanya digunakan Hardlimit
- Untuk pengenalan pola/jaringan back propagation biasanya digunakan sigmoid
- Untuk prediksi/aproksimasi linear
biasanya digunakan linear

Model McCulloch and Pitts

Neuron menghitung jumlah bobot dari setiap sinyal input dan membandingkan hasilnya dengan nilai bias/threshold, b. Jika input bersih kurang dari threshold, output neuron adalah -1. Tetapi, jika input bersih lebih besar dari atau sama dengan threshold, neuron diaktifkan dan outputnya ditetapkan +1 (McCulloch and Pitts, 1943).






Fungsi aktivasi ini disebut Fungsi tanda (Sign Function). Sehingga output aktual dari neuron dapat ditunjukkan dengan:





Perceptron

- Perceptron (Rosenblatt, 1958): JST training yang sederhana dipakaikan prosedur algoritma training yang pertama kali. Terdiri dari neuron tunggal dengan bobot synaptic yang diatur dan hard limiter.
- Operasinya didasarkan pada model neuron McCulloch dan Pitts.
- Jumlah input yang telah diboboti dipakaikan kepada hard limiter: menghasilkan output +1 jika input positif dan -1 jika negatif à mengklasifikasikan output ke dalam dua area A1 dan A2.






Proses Belajar








Target = Nilai yang diinginkan, Output = Nilai keluar dari neuron
Proses compare (membandingkan) antara output dengan target,jika terjadi perbedaan maka weight/bobot diatur sampai nilai output = (mendekati) nilai target.

Proses Belajar











Analog

- Target = apa yang anda inginkan
- Input/masukan = Kekurangan dan kelebihan/potensi anda
- Bobot = seberapa besar usaha anda
- Output = hasil dari potensi and kelemahan dikalikan dengan usaha terhadap potensi or kelemahan
- Error = Kesalahan/Introspeksi diri = perkuat potensi or/and lemahkan kekurangan

Proses Belajar








Proses Belajar jika masukan positif

Untuk masukan positif penambahan bobot menyebabkan peningkatan keluaran.











Proses Belajar jika masukan negatif

Untuk masukan negatif penambahan bobot menyebabkan penurunan keluaran.












Proses Perceptron Belajar

- Pada awalnya bobot dibuat kecil untuk menjaga jangan sampai terjadi perbedaan yang sangat besar dengan target.
- Bobot awal adalah dibuat random, umumnya dalam interval [-0.5 – 0.5]
- Keluaran adalah proses jumlah perkalian antara masukan dengan bobot.
- Jika terjadi perbedaan antara keluaran dengan target, e(k) = a(k) – t(k), k = iterasi ke- 1, 2, 3, maka:
Bobot diupdate/diatur sedikit demi sedikit untuk mendapatkan keluaran yang sesuai dengan target:
w(k+1) = w(k) + delta w(k)

Perceptron Learning Rule (Rosenblatt, 1960)

- e(k)= a(k)-t(k);
k = iterasi ke-1,2,...
a(k) = keluaran neuron
t(k) = target yanng diinginkan
e(k) = error kesalahan

- w(k+1) = w(k) + delta W(k)

- Delta w(k) = kec. belajar x masukan x error = alpha x p(k) x e(k)
dengan:
Alpha = learning rate = kecepatan belajar
Alpha besar belajar cepat -> tidak stabil
Alpha kecil belajar lambat -> stabil

Langkah Pembelajaran

1.Langkah pertama : Inisialisasi Awal

- Mengatur bobot w1, w2, ..., wn interval [-0.5 – 0.5], mengatur bias/threshold b, mengatur kec pembelajaran, fungsi aktivasi

2.Langkah kedua : Menghitung keluaran

- Mengaktifkan perceptron dengan memakai masukan p1(k), p2(k), ..., pi(k) dan target yang dikehendaki t(k). Hitunglah output aktual pada iterasi ke-k = 1




- i adalah jumlah input perceptron dan step adalah fungsi aktivasi

3.Langkah ke tiga : Menghitung error

- e(k) = t(k) – a(k); t(k) = target,a(t)=keluaran perceptron

4.Langkah ke empat : Mengatur Bobot

- Mengupdate bobot perceptron
wi(k+1) = wi(k) + Delta wi(k)
w(k+1) = bobot baru; w(k) = bobot yg lalu
Delta wi(p) adalah pengkoreksian bobot pada iterasi k, yang dihitung dengan:

- Delta wi(p) = Alpha x pi(k) x e(k)

5.Langkah ke lima : pengulangan

- Naikkan iterasi k dengan 1 (k=k+1), kembalilah ke langkah ke dua dan ulangi proses sampai keluaran=target or mendekati target.

Melatih Perceptron: Operasi OR






















Contoh Pembelajaran

1.Langkah pertama : Inisialisasi Awal

- Mengatur bobot w1, w2 interval [-0.5 – 0.5], w1(1)=0.3 w2(1)=0.1, mengatur bias/threshold b=0.2, mengatur kec pembelajaran (alpha) =0.2, fungsi aktivasi-> step

2.Langkah kedua : Menghitung keluaran

- Mengaktifkan perceptron dengan memakai masukan p1(k), p2(k) dan target yang dikehendaki t(k).
Hitunglah output aktual pada iterasi ke-k = 1














3.Langkah ke tiga : Menghitung error
e(k) = t(k) – a(k)
e(1) = 0 – 0 = 0

4.Langkah ke empat : Mengatur Bobot

- Mengupdate bobot perceptron

wi(k+1) = wi(k) + delta wi(k)
w1(2) = 0.3(1) + delta w1(1)
Delta w1(1) = alpha x pi(1) x e(1) = 0.2 x 0 x 0 = 0

maka w1(2) = 0.3(1) + 0 = 0.3 (tidak berubah)
wi(k+1) = wi(k) + delta wi(k)
w2(2) = 0.3(1) + delta w2(1)
delta w2(1) = alpha x pi(1) x e(1) = 0.2 x 0 x 0 = 0

maka w2(2) = 0.1(1) + 0 = 0.1 (tidak berubah)

5.Langkah ke lima : pengulangan

- Naikkan iterasi k dengan 1 (k=k+1), kembalilah ke langkah ke dua dan ulangi proses sampai keluaran=target or mendekati target.

- K=2
w1(2)= 0.3 w2(2)=0.1, p1(2)=0, p2(2)=1 target(2)=Fd(2)=1

- Hitung keluaran:








- Hitung error:

e(2)= target(2) – a(2) = 1 – 0 =1 (ada error)

- Mengatur Bobot

Mengupdate bobot perceptron:

wi(k+1) = wi(k) + delta wi(k)
w1(3) = 0.3(2) + delta w1(2)
delta w1(2) = alpha x p1(1) x e(1) = 0.2 x 0 x 1 = 0

maka w1(3) = 0.3(1) + 0 = 0.3 (tidak berubah)

wi(k+1) = wi(k) + delta wi(k)
w2(3) = 0.3(2) + delta w2(2)
delta w2(1) = alpha x p2(1) x e(1) = 0.2 x 1 x 1 = 0.2

maka w2(3) = 0.1(1) + 0.2 = 0.3 (berubah sebelumnya w2(2)=0.1)

Referensi:
blog.unila.ac.id/anto

Perceptron

Perceptron juga termasuk salah satu bentuk jaringan syaraf yang sederhana. Perceptron biasanya digunakan untuk mengklasifikasikan suatu tipe pola tertentu yang sering dikenal dengan pemisahan secara linear.
Pada dasarnya, perceptron pada jaringan syaraf dengan satu lapisan memiliki bobot yang bisa diatur dan suatu nilai ambang (threshold).
Algoritma yang digunakan oleh aturan perceptron ini akan mengatur parameter-parameter bebasnya melalui proses pembelajaran.
Nilai threshold pada fungsi aktivasi adalah non negatif. Fungsi aktivasi ini dibuat sedemikian rupa sehingga terjadi pembatasan antara
daerah positif dan daerah negatif.

Garis pemisah antara daerah positif dan daerah nol memiliki pertidaksamaan:
w1x1 + w2x2 + b > tetha

Sedangkan garis pemisah antara daerah negatif dengan daerah nol memiliki pertidaksamaan:
w1x1 + w2x2 + b < tetha

Misalkan kita gunakan pasangan vektor input s dan vektor output sebagai pasangan vektor yang akan dilatih.

Algoritma.

1. Inisialisasi semua bobot dan bias:
(untuk sederhananya set semua bobot dan bobot bias sama dengan nol)
Set learning rate: alpha(0 < alpha = 1)
(untuk sederhananya set sama dengan 1)

2. Selama kondisi berhenti bernilai false, lakukan langkah-langkah sebagai berikut:
a. Untuk setiap pasangan pembelajaran s-t, kerjakan:
- Set input dengan nilai sama dengan vektor input:
xi = si

- Hitung respon untuk unit output:

y_in = b + tetha xi wi

- Perbaiki bobot dan bias jika terjadi error:

Jika y tidak sama dengan t maka:

wi(baru) = wi(lama) + a*t*xi
b(baru) = b(lama) + a*t

Jika tidak, maka:

wi(baru) = wi(lama)
b(baru) = b(lama)

b. Tes kondisi berhenti: jika tidak terjadi perubahan bobot pada (i) maka kondisi berhenti TRUE, namun jika masih terjadi perubahan maka kondisi berhenti FALSE.

Algoritma diatas bisa digunakan baik untuk input biner mauoun bipolar, dengan ? tetentu, dan bias yang dapat diatur.
Pada algoritma tersebut bobot-bobot yang diperbaiki hanyalah bobot-bobot yang berhubungan dengan input yang aktif dan bobot-bobot yang tidak menghasilkan nilai y yang benar.

Referensi:
Sri Kusumadewi, Artificial Intellegence (Teknik dan Aplikasinya).

Hebb Rule

Hebb rule adalah metode pembelajaran yang paling sederhana. Pada metode ini pembelajaran dilakukan dengan
cara memperbaiki nilai bobot sedemikian rupa sehingga jika ada dua neuron yang terhubung dan keduanya pada kondisi 'hidup'
(on) pada saat yang sama, maka bobot antara keduanya di naikkan. Apabila data direpresentasikan secara bipolar,
maka perbaikan bobotnya adalah:

wi(baru) = wi(lama) + xi*y

dengan:
wi = bobot data input ke-i
xi = input data ke-i
y = output data

Misalkan kita gunakan pasangan vektor input s dan vektor output sebagai pasangan vektor yang akan dilatih.
Sedangkan vektor yang hendak digunakan untuk testing adalah vektor x.

Algoritma:

1. Inisialisasi semua bobot:
wij = 0; dengan i = 1,2,...,n; dan j = 1,2,...m.

2. Untuk setiap pasangan input output (s-t), lakukan langkah-langkah sebagai berikut:

a. Set input dengan nilai sama dengan vektor input:

xi = si; (i = 1,2,...,n)

b. Set output dengan nilai sama dengan vektor output:

yi = ti; (i = 1,2,...,n)

c. Perbaiki bobot:

wij(baru) = wij(lama) + xi*yi
(i = 1,2,...,n; dan j = 1,2,...,m)

dengan catatan bahwa nilai bias selalu 1.

Contoh soal:

Misalkan kita ingin membuat jaringan syaraf untuk melakukan pembelajaran terhadap fungsi OR dengan input dan
target bipolar sebagai berikut:

input bias target
-1 -1 1 -1
-1 1 1 1
1 -1 1 1
1 1 1 1

Bobot awal dan bobot bias kita set=o.

Arsitektur jaringannya:

x = -1 -1
-1 1
1 -1
1 1

T = -1
1
1
1

Bobot awal;
w = 0
0

b = 0

Perubahan bobot:

data ke-1:
w1 = 0 + 1 = 1
w2 = 0 + 1 = 1
b = 0 - 1 = -1

data ke-2:
w1 = 1 - 1 = 0
w2 = 1 + 1 = 2
b = -1 + 1 = 1

data ke-3:
w1 = 0 + 1 = 1
w2 = 2 - 1 = 1
b = 0 + 1 = 1

data ke-4:
w1 = 1 + 1 = 2
w2 = 1 + 1 = 2
b = 1 + 1 = 2

Kita bisa melakukan pengetesan terhadap salah satu data yang ada, misal kita ambil x = (-1-1).

Y = 2 + (-1*2) + (-1*2) = -2

Karena nilai y-1n = -2, maka kita dapat menentukan nilai y = f(y-1n) = f(-2) = -1.
Nilai ini (-1) cocok dengan output yang diberikan.

Jaringan Hebb untuk Pengenalan Pola

Jaringan Hebb dapat pula dipakai untuk mengenali pola. Caranya adalah dengan melatih jaringan untuk membedakan 2 macam pola.

referensi:
Sri Kusumadewi, Artificial Intellegence (Teknik dan Aplikasinya).

Jaringan Syaraf Tiruan

Jaringan syaraf adalah merupakan salah satu representasi buatan dari otak manusia yang selalu mencoba untuk
mensimulasikan proses pembelajaran pada otak manusia tersebut. Istilah buatan disini digunakan karena jaringan syaraf ini
diimplementasikan dengan menggunakan program komputer yang mampu menyelesaikan sejumlah proses perhitungan selama proses pembelajaran.

1. Otak Manusia

Otak manusia berisi berjuta-juta sel syaraf yang bertugas untuk memproses informasi. Tiap-tiap sel bekerja seperti suatu prosesor sederhana.
Masing-masing sel tersebut saling berinteraksi sehingga mendukung kemampuan kerja otak manusia.













Gambar struktur syaraf otak manusia.

















Gambar otak manusia dengan bagian kerja otak.


2. Sejarah Jaringan Syaraf Tiruan

Mulai dari ditemukannya, jaringan syaraf tiruan telah mengalami tahap-tahap perkembangan, antara lain:
1. Pada tahun 1940-an, para ilmuwan menemukan bahwa psikologi dari otak sama dengan mode pemrosesan yang dilakukan oleh peralatan computer.

2. Pada tahun 1943, McCulloch dan Pitts merancang model formal yang pertama kali sebagai perhitungan dasar neuron.

3. Pada tahun 1949, Hebb menyatakan bahwa informasi dapat disimpan dalam koneksi-koneksi dan mengusulkan adanya skema pembelajaran untuk memperbaiki koneksi-koneksi antar neuron tersebut.

4. Pada tahun 1954, Farley dan Clark men-setup model-model untuk relasi adaptif stimulus-respon dalam jaringan random.

5. Pada tahun 1958, Rosenblatt mengembangkan konsep dasar tentang perceptron untuk klasifikasi pola.

6. Pada tahun 1960, Widrow dan Hoff mengembangkan ADALINE untuk kendali adaptif dan pencocokan pola yang dilatih dengan aturan pembelajaran Least mean Square (LMS).

7. Pada tahun 1974, Werbos memperkenalkan algoritma backpropagation untuk melatih perceptron dengan banyak lapisan.

8. Pada tahun 1975, Little dan Shaw menggambarkan jaringan syaraf dengan menggunakan model probabilistic.

9. Pada tahun 1982, Kohonen mengembangkan metode pembelajaran jaringan syaraf yang tidak terawasi (unsupervised learning) untuk pemetaan.

10. Pada tahun 1982, Grossberg, mengembangkan teori jaringan yang diinspirasi oleh perkembangan psikologi. Bersama Carpenter, mereka mengenalkan sejumlah arsitektur jaringan, antara lain: Adaptive Resonance Theory (ART), ART2, dan ART3.

11. Pada tahun 1982, Hopfield mengembangkan jaringan syaraf recurrent yang dapat digunakan untuk menyimpan informasi dan optimasi.

12. Pada tahun 1985, algoritma pembelajaran dengan menggunakan mesin Boltzmann yang menggunakan jaringan syaraf probabilistik mulai dikembangkan.

13. Pada tahun 1987, Kosko mengembangkan jaringan Adaptive Bidirectional Associative Memory (BAM).

14. Pada tahun 1988, mulai dikembangkan fungsi radial basis.

3. Komponen Jaringan Syaraf

Ada beberapa tipe jaringan syaraf, namun demikian hampir semuanya memiliki komponen-komponen yang sama.
Seperti halnya otak manusia, jaringan syaraf juga terdiri dari beberapa neuron dan ada hubungan antara neuron-neuron tersebut.
Neuron-neuron tersebut akan mentransformasikan informasi yang diterima melalui sambungan keluarnya menuju ke neuron-neuron yang lain.
Pada jaringan syaraf hubungan ini dikenal dengan nama bobot. Informasi tersebut disimpan pada suatu nilai tertentu pada bobot tersebut.


















Gambar struktur neuron jaringan syaraf tiruan.


Neuron buatan sebenarnya mirip dengan sel neuron biologis. Neuron-neuron buatan tersebut bekerja dengan cara yang sama pula dengan neuron-neuron biologis.
Informasi (disebut dengan: input) akan dikirim ke neuron dengan bobot kedatangan tertentu. Input ini akan diproses oleh suatu fungsi perambatan yang akan menjumlahkan nilai-nilai semua bobot yang datang. Hasil penjumlahan ini kemudian akan dibandingkan dengan suatu nilai ambang (threshold) tertentu melalui fungsi aktivasi setiap neuron. Apabila input tersebut melewati suatu nilai ambang tertentu, maka neuron tersebut akan diaktifkan, tapi jika tidak, maka neuron tersebut tidak akan diaktifkan.
Apabila neuron tersebut diaktifkan, maka neuron tersebut akan mengirimkan output melalui bobot-bobot outputnya ke semua neuron yang berhubungan dengannya.

4. Arsitektur Jaringan

Ada beberapa arsitektur jaringan syaraf, antara lain:
Jaringan dengan lapisan tunggal (single layer net)
Jaringan dengan lapisan tunggal hanya memiliki satu lapisan dengan bobot-bobot terhubung.
Jaringan ini hanya menerima input kemudian secara langsung akan mengolahnya menjadi output tanpa harus melalui lapisan tersembunyi.

Jaringan dengan banyak lapisan (multi layer net)
Jaringan dengan banyak lapisan memiliki 1 atau lebih lapisan yang terletak diantara lapisan input dan lapisan output (memiliki satu atau lebih lapisan tersembunyi). Umumnya, ada lapisan bobot-bobot yang terletak antara 2 lapisan yang bersebelahan.
Jaringan dengan banyak lapisan ini dapat menyelesaikan permasalahan yang lebih sulit dari pada jaringan dengan lapisan tunggal, tentu saja dengan pembelajaran yang lebih rumit. Namun demikian, pada banyak kasus, pembelajaran pada jaringan dengan banyak lapisan ini lebih sukses dalam menyelesaikan masalah.

Jaringan dengan lapisan Kompetitif (competitive layer net)Umumnya, hubungan antar neuron pada lapisan kompetitif ini tidak diperlihatkan pada diagram arsitektur.

5. Fungsi Aktivasi

Ada beberapa fungsi aktivasi yang sering digunakan dalam jaringan syaraf tiruan, yaitu:

1.Fungsi undak biner (hard limit)
Jaringan dengan lapisan tunggal sering menggunakan fungsi undak untuk mengkonversikan input dari suatu variable yang bernilai kontinu ke suatu output biner (0 atau 1).

2.Fungsi undak biner (Threshold)
Fungsi undak biner dengan menggunakan nilai ambang sering juga disebut dengan nama fungsi nilai ambang (threshold) atau fungsi Heaviside.

3.Fungsi bipolar (symetric hard limit)
Fungsi bipolar sebenarnya hampir sama dengan fungsi undak biner, hanya saja output yang dihasilkan berupa 1, 0 atau -1.

4.Fungsi bipolar dengan threshold
Fungsi bipolar sebenarnya hampir sama dengan fungsi undak biner dengan threshold, hanya saja output yang dihasilkan berupa 1, 0 atau -1.

5.Fungsi linear (identitas)
Fungsi linear memiliki nilai output yang sama dengan nilai inputnya.

6.Fungsi saturating linear
Fungsi ini akan bernilai 0 jika inputnya kurang dari - 1/2 dan akan bernilai 1 jika inputnya lebih dari 1/2. Sedangkan jika nilai input terletak antara -1/2 dan 1/2, maka outputnya akan bernilai sama dengan nilai input ditambah 1/2.

7.Fungsi simetric saturating linear
Fungsi ini akan bernilai -1 jika inputnya kurang dari -1 dan akan bernilai 1 jika inputnya lebih dari 1. Sedangkan jika nilai input terletak antara -1 dan 1 maka outputnya akan bernilai sama dengan nilai inputnya.

8.Fungsi sigmoid biner
Fungsi ini digunakan untuk jaringan syaraf yang dilatih dengan menggunakan metode backpropagation. Fungsi sigmoid biner memiliki nilai pada range 0 sampai 1. Oleh karena itu, fungsi ini sering digunakan untuk jaringan syaraf yang membutuhkan nilai output yang terletak pada interval 0 sampai 1. Namun, fungsi ini bisa juga digunakan oleh jaringan syaraf yang nilai outputnya 0 atau 1.

y=f(x)= 1/(1+e^(-sx) )

dengan: f'(x)= sf(x)[1-f(x)]


9.Fungsi sigmoid bipolar
Fungsi sigmoid bipolar hampir sama dengan fungsi sigmoid biner, hanya saja output dari fungsi ini memiliki range antara -1 sampai 1.

y=f(x)=(1-e^(-x))/(1+e^(-x) )

dengan: f' (x)=s/2 [1+f(x) ][1-f(x)]



6. Proses Pembelajaran

Jaringan syaraf akan mencoba untuk mensimulasikan kemampuan otak manusia untuk belajar. Jaringan syraf tiruan juga tersusun atas neuron-neuron dan dendrite. Tidak seperti model biologis, jaringan syaraf memiliki struktur yang tidak dapat diubah, dibangun oleh sejumlah neuron, dan memiliki nilai tertentu yang menunjukkan seberapa besar koneksi antara neuron (yang dikenal dengan nama bobot). Perubahan yang terjadi selama proses pembelajaran adalah perubahan nilai bobot. Nilai bobot akan bertambah, jika informasi yang diberikan oleh neuron yang bersangkutan tersampaikan, sebaliknya jika informasi tidak disampaikan oleh suatu neuron ke neuron yang lain, maka nilai bobot yang menghubungkan keduanya akan dikurangi. Pada saat pembelajaran dilakukan pada input yang berbeda, maka nilai bobot akan diubah secara dinamis hingga mencapai suatu nilai yang cukup seimbang. Apabila nilai ini telah tercapai mengindikasikan bahwa tiap-tiap input telah berhubungan dengan output yang diharapkan.

1.Pembelajaran Terawasi (supervised learning)

Metode pembelajaran pada jaringan syaraf disebut terawasi jika output yang diharapkan telah diketahui sebelumnya. Contoh: andaikan kita memiliki jaringan syaraf yang akan digunakan untuk mengenali pola, misalkan pada operasi AND.

Pada proses pembelajaran, satu pola input akan diberikan ke satu neuron pada lapisan input. Pola ini akan dirambatkan disepanjang jaringan syaraf hingga sampai ke neuron pada lapisan output. Lapisan output ini akan membangkitkan pola output yang nantinya akan dicocokkan dengan pola output targetnya. Apabila terjadi perbedaan antara pola output hasil pembelajaran dengan pola target, maka disini akan muncul error. Apabila nilai error ini masih cukup besar, mengindikasikan bahwa masih perlu dilakukan lebih banyak pembelajaran lagi. Pembelajaran terawasi terdiri dari beberapa metode, yaitu: Hebb Rule, Perceptron, Delta Rule, Backpropagation, Hetero associative memory, Bidirectional associative memory, dan Learning vector quantization.


2.Pembelajaran Tak Terawasi (unsupervised learning)

Pada metode pembelajaran yang tak terawasi ini tidak memerlukan target output. Pada metode ini, tidak dapat ditentukan hasil yang seperti apakah yang diharapkan selama proses pembelajaran. Selama proses pembelajaran, nilai bobot disusun dalam suatu range tertentu tergantung pada nilai input yang diberikan. Tujuan pembelajaran ini adalah pengelompokan unit-unit yang hampir sama dalam suatu area tertentu. Pembelajaran ini biasanya sangat cocok untuk pengelompokkan (klasifikasi) pola. Yang termasuk kedalam pembelajaran tak terawasi adalah metode Kohonen.


referensi:
Sri Kusumadewi, Artificial Intellegence (Teknik dan Aplikasinya).
http://fairuzelsaid.wordpress.com/2009/11/19/metode-data-mining-jaringan-syaraf-tiruan/
http://kankerotak.org/info/gejala-kanker-otak.html
http://teknik-informatika.com/page/22/