LAPORAN
JARINGAN SARAF TIRUAN
DALAM
PENYELESAIAN PERCEPTRON UNTUK MENGENALI LOGIKA “ATAU”
DENGAN
MENGGUNAKAN MASUKAN BINER DAN KELUARAN BIPOLAR, DAN
GUNAKAN Α = 1
DAN THRESHOLD (Ø) = 0,2
Disusun Oleh:
Naufal Syauqi
(11622045)
Athok Al Azizi
(11622018)
UNIVERSITAS MUHAMMADIYAH GRESIK
JURUSAN TEKNIK PRODI INFORMATIKA
2013
A.
Pengertian
Jaringan Syaraf Tiruan adalah Merupakan salah satu
representasi buatan dari otak manusia yang selalu mencoba untuk mensimulasikan
proses pembelajaran pada otak manusia tersebut. Istilah buatan digunakan karena
jaringan syaraf ini diimplementasikan dengan menggunakan program komputer yang
mampu menyelesaikan sejumlah proses perhitungan selama proses pembelajaran.
Neuron, sel syaraf yang akan mentransformasikan
informasi yang diterima melalui sambungan keluaranya menuju neuron-neuron yang
lain.
Pada jaringan syaraf, hubungan antar neuron-neuron
dikenal dengan nama bobot.
Pada jaringan syaraf, neuron-neuron akan dikumpulkan
dalam lapisan-lapisan (layer) yang disebut dengan lapisan neuron (neuron
layers)
Informasi yang diberikan pada jaringan syaraf akan
dirambatkan lapisan ke lapisan, mulai dari input sampai kelapisan output
melalui lapisan yang lainnya, yang dikenal dengan lapisan tersembunyi (hidden
layer), tergantung pada algoritma pembelajarannya, bisa jadi informasi tersebut
akan dirambatkan secara mundur pada jaringan.
B.
SEJARAH
PERCEPTRON
Tahun 1940-an, para
ilmuwan menemukan bahwa psikologi otak sama dengan mode pemrosesan yang
dilakukan oleh komputer
Tahun 1943, McCulloch
dan Pitts merancang model formal yang pertamakali sebagai perhitungan dasar
neuron.
Tahun 1954, Farley
dan Clark mensetup model-model untuk relasiadaptif stimulus-respon dalam
jaringan random.
Tahun 1958, Rosen
blatt mengembangkan konsep dasar tentang perception untuk klasifikasi pola.
Tahun 1960, Widrow
dan Hoff mengembangkan ADALINE yang
dilatih dengan pembelajaran Least Mean Square (LMS).
Tahun 1974, Werbos
memperkenalkan algoritma backpropagation
Tahun 1975, Little
dan Shaw menggambarkan jaringan syaraf dengan probabilistik
Tahun 1982, Kohonen
mengembangkan metode pembelajaran jaringan syaraf yang tidak terawasi untuk
pemetaan.
Tahun 1982, Grossberg
mengembangkan teori jaringan.
Tahun 1982,
Hopfield mengembangkan jaringan syaraf reccurent.
Tahun 1985, algoritma
pembelajaran dengan mensin Boltzmann.
Tahun1987, Kosko
mengembangkan jaringan Adaptive Bidirectional Associative Memory (BAM)
Tahun 1988,
dikembangkan fungsiradial bebas.
C.
ARSITEKTUR
JARINGAN SYARAF
Faktor terpenting untuk menentukan kelakuan suatu
neuron adalah fungsi aktivasi dan pola bobotnya.
Ada
beberapa arsitektur jaringan syaraf, antar alain :
A .Jaringan dengan lapisan tunggal
(single layer net)
Hanya memiliki satu lapisan dengan bobot-bobot
terhubung Jaringan ini hanya menerima input kemudian secara langsung akan
mengolahnya menjadi output tanpa harus
melalui lapisan tersembunyi.
b. Jaringan dengan banyak lapisan (multilayer net)
-Memiliki 1 atau lebih lapisan yang
terletak diantara lapisan input dan lapisan output
-Ada lapisan yang berbobot yang
terletak antara 2 lapisan yang bersebelahan.
D. FUNGSI AKTIFASI
a. FungsiUndakBiner(Hard
Limit)
Jaringan dengan lapisan tunggal
sering menggunakan fungsi undak untuk menkonversi input dari suatu variabel
yang bernilai kontinu ke suatu output biner Fungsihard limit dirumuskan,
0 jika
x ≤ 0
y=f(net)=
1 jika
x > 0
b. FungsiUndakBiner(Threshold)
Fungsi
undak biner dengan menggunakan nilai ambang sering disebut fungsi nilai ambang
atau fungsi Heaviside. Dirumuskan:
0 jika x < Ø
Y=f(net)=
1 jika x ≥ Ø
c. Fungsi Bipolar
Hampir sama
dengan fungsi undak biner, hanya saja
output yang dihasilkan berupa 1, 0 atau -1
Fungsi
Symetric Hard Limit dirumuskan sebagai :
1 jika x
> 0
Y=f(x)= 0 jika x = 0
-1 jika
x < 0
d.fungsi bipolar dengan treshold
sama
dengan fungsi bipolar akan tetapi angka
“0” diganti dengan nilai threshold
E. METODE PADA
JST
ADA
7 METAODE DALAM JARINGAN SYARAF
TIRUAN
1. HebbRule
Metode
pembelajaran yang paling sederhana, pembelajaran dilakukan dengan cara
memperbaiki nilai bobot sedemikian rupa sehingga jika ada 2 neuron yang
terhubung dan keduanya dalam kondisi“on”pada saat yang sama, maka bobot antara
keduanya dinaikkan
2. Perception
Biasanya
digunakan untuk mengklasifikasikan suatu tipe pola tertentu yang sering dikenal
dengan pemisahan secara linear.
Algoritma
yang digunakan akan mengatur parameter-parameter bebasnya melalui proses
pembelajaran.
3. Delta Rule
Mengubah
bobot yang menghubungkan antara jaringan input keunit output dengan nilai
target.
4. Backpropagation
Algoritma
pembelajaran yang terawasi dan biasanya digunakan oleh perception dengan banyak
lapisan untuk mengubah bobot-bobot yang terhubung dengan neuron-neuron yang ada
pada lapisan tersembunyi.
5. HetroassociativeMemory
Jaringan
yang bobot-bobotnya ditentukan sedemikian rupa sehingga jaringan tersebut dapat
menyimapan kumpulan pola.
6. Bidirectional Associative Memory
Model
jaringan syaraf yang memiliki2 lapisan dan terhubung penuh dari satu lapisan
kelapisan lainnya. Pada jaringan ini dimungkinkan adanya hubungan timbal balik
antara lapisan input dan lapisan output.
7. Learning vector Quantization
Suatu
metode untuk melakukan pembelajaran pada lapisan kompetitif yang terawasi.
Suatu lapisan kompetitif akan secara otomatis belajar untuk mengklasifikasikan
vektor-vektor input. Kelas-kelas yang didapatkan sebagai hasil hanya tergantung
pada jarak antara vektor-vektor input.
KUMPULAN RUMUS DAN ISTILAH
NET=Y_IN= b + Σxi Wi
∆W = α t Xi
BOBOT BARU (W) = ∆W
+ W lama
Untuk y=f(net) sesuai aktifasi yang diinginkan
KETERANGAN
W=BOBOT
T =TARGET
∆W = SELISIH BOBOT
Xi = INPUTAN
NET = KELUARAN
F(net) = RESPON UNIT KELUARAN
α = LAJU
PEMAHAMAN
CONTOH SOAL
Buatlah
perceptron untuk mengenali logika “atau” dengan menggunakan masukan biner dan
keluaran bipolar, dan gunakan α = 1 dan threshold (Ø) = 0,2 !!!!!!
EPOCH 1
|
|||||||||||
MASUKAN
|
TARGET
|
|
y=
|
PERUBAHAN BOBOT
|
BOBOT BARU
|
||||||
X1
|
X2
|
1
|
t
|
NET
|
f(NET)
|
∆W1
|
∆W2
|
∆b
|
W1
|
W2
|
b
|
INISIALISASI
|
0
|
0
|
0
|
||||||||
1
|
1
|
1
|
1
|
0
|
0
|
1
|
1
|
1
|
1
|
1
|
1
|
1
|
0
|
1
|
1
|
2
|
1
|
1
|
0
|
1
|
2
|
1
|
2
|
0
|
1
|
1
|
1
|
3
|
1
|
0
|
1
|
1
|
2
|
2
|
3
|
0
|
0
|
1
|
-1
|
3
|
1
|
0
|
0
|
-1
|
2
|
2
|
2
|
EPOCH 2
|
|||||||||||
MASUKAN
|
TARGET
|
|
y=
|
PERUBAHAN BOBOT
|
BOBOT BARU
|
||||||
X1
|
X2
|
1
|
t
|
NET
|
f(NET)
|
∆W1
|
∆W2
|
∆b
|
W1
|
W2
|
b
|
INISIALISASI
|
2
|
2
|
2
|
||||||||
1
|
1
|
1
|
1
|
6
|
1
|
0
|
0
|
0
|
2
|
2
|
2
|
1
|
0
|
1
|
1
|
4
|
1
|
0
|
0
|
0
|
2
|
2
|
2
|
0
|
1
|
1
|
1
|
4
|
1
|
0
|
0
|
0
|
2
|
2
|
2
|
0
|
0
|
1
|
-1
|
2
|
1
|
0
|
0
|
-1
|
2
|
2
|
1
|
EPOCH 3
|
|||||||||||
MASUKAN
|
TARGET
|
|
y=
|
PERUBAHAN BOBOT
|
BOBOT BARU
|
||||||
X1
|
X2
|
1
|
t
|
NET
|
f(NET)
|
∆W1
|
∆W2
|
∆b
|
W1
|
W2
|
b
|
INISIALISASI
|
2
|
2
|
1
|
||||||||
1
|
1
|
1
|
1
|
5
|
1
|
0
|
0
|
0
|
2
|
2
|
1
|
1
|
0
|
1
|
1
|
3
|
1
|
0
|
0
|
0
|
2
|
2
|
1
|
0
|
1
|
1
|
1
|
3
|
1
|
0
|
0
|
0
|
2
|
2
|
1
|
0
|
0
|
1
|
-1
|
1
|
1
|
0
|
0
|
-1
|
2
|
2
|
0
|
EPOCH 4
|
|||||||||||
MASUKAN
|
TARGET
|
|
y=
|
PERUBAHAN BOBOT
|
BOBOT BARU
|
||||||
X1
|
X2
|
1
|
t
|
NET
|
f(NET)
|
∆W1
|
∆W2
|
∆b
|
W1
|
W2
|
b
|
INISIALISASI
|
2
|
2
|
0
|
||||||||
1
|
1
|
1
|
1
|
4
|
1
|
0
|
0
|
0
|
2
|
2
|
0
|
1
|
0
|
1
|
1
|
2
|
1
|
0
|
0
|
0
|
2
|
2
|
0
|
0
|
1
|
1
|
1
|
2
|
1
|
0
|
0
|
0
|
2
|
2
|
0
|
0
|
0
|
1
|
-1
|
0
|
0
|
0
|
0
|
-1
|
2
|
2
|
-1
|
EPOCH 5
|
|||||||||||
MASUKAN
|
TARGET
|
|
y=
|
PERUBAHAN BOBOT
|
BOBOT BARU
|
||||||
X1
|
X2
|
1
|
t
|
NET
|
f(NET)
|
∆W1
|
∆W2
|
∆b
|
W1
|
W2
|
b
|
INISIALISASI
|
2
|
2
|
-1
|
||||||||
1
|
1
|
1
|
1
|
3
|
1
|
0
|
0
|
0
|
2
|
2
|
-1
|
1
|
0
|
1
|
1
|
1
|
1
|
0
|
0
|
0
|
2
|
2
|
-1
|
0
|
1
|
1
|
1
|
1
|
1
|
0
|
0
|
0
|
2
|
2
|
-1
|
0
|
0
|
1
|
-1
|
-1
|
-1
|
0
|
0
|
0
|
2
|
2
|
-1
|
EPOCH 6
|
|||||||||||
MASUKAN
|
TARGET
|
|
y=
|
PERUBAHAN BOBOT
|
BOBOT BARU
|
||||||
X1
|
X2
|
1
|
t
|
NET
|
f(NET)
|
∆W1
|
∆W2
|
∆b
|
W1
|
W2
|
b
|
INISIALISASI
|
2
|
2
|
-1
|
||||||||
1
|
1
|
1
|
1
|
3
|
1
|
0
|
0
|
0
|
2
|
2
|
-1
|
1
|
0
|
1
|
1
|
1
|
1
|
0
|
0
|
0
|
2
|
2
|
-1
|
0
|
1
|
1
|
1
|
1
|
1
|
0
|
0
|
0
|
2
|
2
|
-1
|
0
|
0
|
1
|
-1
|
-1
|
-1
|
0
|
0
|
0
|
2
|
2
|
-1
|
Kesimpulan
1. Metode perceptron dapat digunakan untuk mengenali logika “Atau / Or”
dengan dengan menggunakan masukan biner dan keluaran bipolar, dan gunakan α = 1
dan threshold (ø) = 0,2
2. Terdapat 6
Epoch atau Iterasi hingga diperoleh output yang tepat sesuai targaet dan batas
kesalahan 0