1

Abstraksi – Artificial Neural Network(ANN) merupakan
algoritma yang populer untuk mengenali pola data tertentu.
Penggunaan ANN salah satunya untuk mengenali dan
memprediksi data. ANN memiliki beberapa modifikasi untuk
memperbaiki performanya. Deep Learning menjadi popular
dewasa ini. Spesifikasi komputer yang semakin baik menjadi
faktor utama penentu kemajuan algoritma ANN. Multilayer
Perceptron adalah pengembangan dari algoritma perceptron.
Penelitian ini hendak mengukur performansi ke tika
diimplementasikan pada data Indeks Saham Gabungan Dow
Jones.

Kata Kunci – Artificial Neural Network, Levenberg
Marquardt, Bayesian Regularization, Dow Jones

I. PENDAHULUAN
Komputer merupakan salah satu penemuan fenomenal abad
ini. Banyak aspek di dunia ini yang bersinggungan dengan
komputer. Dari bangun tidur, saat tidur, bekerja atau liburan
manusia tidak bisa berpisah dengan komputer. Komputerpun
memiliki beberapa bentuk yaitu berupa mobile phone,
personal computer(PC), Laptop dan netbook [1].

Komputer sangat cepat dalam memproses yang sifatnya
dengan perhitungan aritmatika, namun memiliki kelemahan
dalam meniru kemampuan-kemampuan yang dimiliki manusia.
Contohnya menyelesaikan masalah, mengenali wajah,
mengenali suara dan kemampuan manusia lainnya [1].

Atas dasar itulah Kecerdasan Buatan menjadi salah satu
cabang ilmu di bidang ilmu komputer yang mendapat
perhatian tinggi dari para peneliti. Secara garis besar
kecerdasan buatan memiliki metode Searching, Reasoning,
Planning, dan Learning. Setiap metode berupaya meniru
kemampuan manusia dalam menyelesaikan masalah [1].

Penelitian ini membahas metode Learning dalam memprediksi
sebuah data indeks saham gabungan pada rentang waktu 1999
sampai 2019. Metode Learning yang digunakan adalah ANN-
Multilayer Perceptron. Algoritma ini adalah adalah
pengembangan dari perceptron dan masuk kedalam ranah
Deep Learning.




Penelitian serupa pernah dilakukan oleh Guresen dkk dengan
membandingkan beberapa metode deep learning pada
NASDAQ [2]. Penelitian perbandingan MLP dengan metoda
lainnya menunjukan hasil yang paling baik pada training
proses dan kedua terbaik ketika proses testing dikalahkan oleh
dynamic-ANN (DAN) [2]. Penelitian kali ini mencoba untuk
mengenali data yang relatif simpel berupa Time-Series Dow
Jones. Harapannya ada perbedaan hasil atau malah
memperkuat penelitian sebelumnya mengenai algoritma ANN-
Multilayer Perceptron.

II. LANDASAN TEORI
Artificial Neural Network (ANN) adalah sistem dengan
prosesor pararel yang besar. Awalnya ilmu ini tidak menjadi
bahan yang menarik. ANN membutuhkan spesifikasi komputer
yang besar untuk menjalankannya. ANN sekarang begitu
menarik dengan didukung perkembangan Hardware yang
menakjubkan setiap tahunnya [3].

ANN intinya menyerupai otak manusia dalam hal
pembelajarannya, sel syaraf manusia disimulasikan sebagai
bobot. Bobot merupakan tempat menyimpan pengetahuan pada
sistem ANN [3].

A. Model Sel Syaraf (Neuron)
Satu Sel syaraf dimodelkan dengan 3 bagian pokok. Adapun 3
bagian tersebut adalah [3]:
1. Fungsi Penjumlah (Summing Function), berfungsi
untuk menjumlahkan semua hasil dari perkalian bobot
dan input ditambah bias.
2. Fungsi Aktivasi (Activation Function), berfungsi untuk
penghubung antara fungsi penjumlahan dan output.
Fungsi Aktivasi dipilih berdasarkan kasus yang
dipilihnya.
3. Keluaran (Output), merupakan keluaran nilai dari
neuron yang ada.
PERFORMANSI PREDIKSI ME NGGUNAKAN
MULTILAYER PERCEPTRON PADA INDEKS SAHAM
GABUNGAN DOW JONES
Ardhian Ekawijana, Bambang Wisnuadhi
[email protected], [email protected]
Politeknik Negeri Bandung

2

Gambar 1 Model Matematis Nonlinear Neuron [3]

Gambar 1 Menjelaskan fungsi dari neuron. Neuron terdiri dari
Summing Function, Activation Function, dan Output. Setiap
neuron ini akan saling terhubung menjadi sebuah kesatuan
yang disebut ANN. Ilustrasinya seperti Sistem Syaraf Otak
manusia yang menggunakan Multi-Processor sebagai
pemrosesan datanya [3].
B. Fungsi Aktivasi (Activation Function)
Fungsi Aktivasi merupakan fungsi untuk mengubah summing
function menjadi output scalar. Fungsi Aktivasi ada dua
macam, yaitu linier dan non linier. Fungsi Aktivasi digunakan
untuk menangani masalah neuron dalam pemecahan
masalahnya [4].

Beberapa contoh Fungsi Aktivasi adalah [4] :
1 Hard Limit Function, Jaringan lapisan tunggal seringkali
menggunakan fungsi ini, yaitu untuk mengkonversi kontinu
menjadi output yang biner (0 atau 1)
2 Threshold Function, Fungsi Hard Limit yang menggunakan
ambang batas untuk mengkonversi nilai menjadi biner.
3 Symetric Hard Limit, Fungsi Hard Limit dengan nilai ujung
konversi menjadi -1, 0 dan 1.
4 Bipolar Threshold Function, Fungsi Symentric Hard Limit
dengan menggunakan batas ambang tertentu untuk mengubah
nilai menjadi -1,0 Dan 1.
5 Linear Function, Fungsi Linier disebut juga sebagai fungsi
identitas dikarenakan nilai input sama dengan nilai output.
6 Sigmoid Biner Function, Fungsi sigmoid memiliki output
lebih beragam dengan range antara [0,1]. Fungsi ini sering
digunakan dalam operasi jaringan syaraf tiruan terutama
jaringan syaraf tiruan backpropagation.
C. Perceptron
Perceptron merupakan jaringan yang sederhana dalam
arsitektur jaringan syaraf tiruan. Perceptron seringkali
digunakan untuk mengklasifikasikan pola tertentu yang sering
dikenal dengan pemisahan linier. Perceptron hanya memiliki
satu lapisan saja dan bisa diatur dengan threshold.
D. Multilayer Perceptron
Frank Rosenblatt, Bernard Widrow dan Marcian Hoff
merancang jaringan syaraf tiruan lapisan tunggal yang
dinamakan perceptron. Perceptron hanya memiliki
kemampuan masalah klasifikasi linier. Mereka menyadari akan
kelemahannya dan mengusulkan jaringan multilayer untuk
mengatasinya, namun mereka tidak dapat merealisasikannya.
Tahun 1980 algoritma backpropagation ditemukan kembali
oleh mereka bertiga dan disebarluaskan. Algoritma ini semakin
populer dengan dimasukannya dalam buku Parallel
Distributed Processing [4].
Multilayer Perceptron, dilatih oleh backpropagation dan
menjadi algoritma yang banyak digunakan. Berikut contoh
arsitektur jaringan syaraf tiruan dengan 3 layer:


Gambar 2 Arsitektur Multilayer Perceptron [4]
Gambar 2 menjelaskan arsitektur Multilayer Perceptron.MLP
memiliki input dan memasuku layer pertama dan diproses oleh
fungsi penjumlahan dan fungsi aktivasi hasil dari layer pertama
menjadi inputan layer berikutnya, semakin banyak layer akan
memperbaiki sistem dalam mengenali pola. Banyaknya layer
juga berpengaruh pada proses learning yang lambat karena
banyaknya layer yang dihadapi.
III. IMPLEMENTASI DAN ANALISA
Penelitian kali ini fokus pada performansi dan akurasi
Multilayer Perceptron pada data indeks saham gabungan Dow
Jones. Penelitian ini menggunakan python. Adapun langkah-
langkah yang ditempuh dalam sekali penelitian adalah :
1 Import library yang dibutuhkan oleh sistem.
2 Mengambil data secara online di yahoo sesuai range waktu
yang dibutuhkan oleh percobaan.
3 Memisahkan data training dan data testing menjadi 2 bagian
terpisah.
4 Mengkonversi nilai-nilai array ke dataset matrix.
5 Membuat model MLP yang dibutuhkan.
6 Mengukur model performansi menggunakan MSE pada
pelatihan data ke model.
7 Memasukan nilai input kepada model yang sudah dilatih.
8 Menampilkan data dengan grafik agar mudah dipahami dan
dibaca.

Percobaan kali ini akan dicoba sebanyak 5 kali percobaan
dengan kisaran waktu yang berbeda. Percobaan akan dilihat
seberapa baik MLP mengenali pola ketika data ditambahkan
setiap kali percobaan.

3
A. Percobaan dengan data 1 Tahun 7 Bulan

Percobaan yang pertama dicoba dari tanggal 1 Januari 2018
sampai 7 September 2019. Percobaan kali ini memiliki nilai
Train Score: 75805.62 MSE dan Test Score: 45253.71 MSE.
Nilai Test lebih kecil menggambarkan bahwa metode MLP
memiliki kemampuan generalisasi yang baik. Metode yang
baik salah satunya memiliki kemampuan ini. Adapun ilustrasi
datanya dapat dilihat sebagai berikut :

Gambar 3 Perbandingan Data Prediksi dan Data Test

Gambar 3 menunjukan prediksi yang baik MLP terhadap data
yang ada. Prediksi yang baik tersebut terlihat dari hampir
samanya antara data prediksi dan data test. Waktu yang
dibutuhkan dalam setiap epoch masih dibawah 1 detik.


Gambar 4 Pengurangan Data Loss Dalam EPOCH

Gambar 4 menjelaskan Data loss dalam 15 Epoch. Data Loss
sudah stabil di kisaran epoch ke 3 dan cenderung tidak ada
perubahan dan tetap ada dikisaran 7000.
B. Percobaan dengan data 5 Tahun 7 Bulan
Percobaan yang pertama dicoba dari tanggal 1 Januari 2014
sampai 7 September 2019. Percobaan kedua memiliki nilai
Train Score: 20549.49 MSE dan Test Score: 66520.19 MSE.
Nilai Test Score yang lebih besar namun masih kecil dan
mendekati data nyata menggambarkan bahwa metode MLP
memiliki kemampuan generalisasi yang baik. Metode yang
baik salah satunya memiliki kemampuan ini. Adapun ilustrasi
datanya dapat dilihat sebagai berikut :

Gambar 5 Perbandingan Data Prediksi dan Data Test

Gambar 5 menunjukan prediksi yang baik MLP terhadap data
yang ada. Prediksi yang baik tersebut terlihat dari hampir
samanya antara data prediksi dan data test. Waktu yang
dibutuhkan dalam sesi training pada setiap epoch masih
dibawah 1 detik.


Gambar 6 Pengurangan Data Loss Dalam EPOCH

Gambar 6 menjelaskan Data loss dalam 15 Epoch. Data Loss
sudah stabil di kisaran epoch ke 3 dan cenderung tidak ada
perubahan dan tetap ada dikisaran 18000.
C. Percobaan dengan data 19 Tahun 7 Bulan
Percobaan yang ketiga dicoba dari tanggal 1 Januari 1900
sampai 7 September 2019. Percobaan kedua memiliki nilai
Train Score: 10780.54 MSE dan Test Score: 26145.24
MSE.
Nilai Test Score yang lebih besar namun masih kecil dan
mendekati data nyata menggambarkan bahwa metode MLP
memiliki kemampuan generalisasi yang baik. Metode yang
baik salah satunya memiliki kemampuan ini. Adapun ilustrasi
datanya dapat dilihat sebagai berikut :

4

Gambar 7 Perbandingan Data Prediksi dan Data Test

Gambar 7 menunjukan prediksi yang baik MLP terhadap data
yang ada. Prediksi yang baik tersebut terlihat dari hampir
samanya antara data prediksi dan data test. Waktu yang
dibutuhkan dalam setiap epoch adalah 2 detik.


Gambar 8 Pengurangan Data Loss Dalam EPOCH

Gambar 8 menjelaskan Data loss dalam 15 Epoch. Data Loss
sudah stabil dikisaran epoch ke 3 dan cenderung tidak ada
perubahan dan tetap ada dikisaran 11000.
D. Analisa
Secara keseluruhan algoritma MLP menunjukan performansi
yang baik dalam mengenali pola data training. Pengenalan
yang baik ini ditunjukan dengan kecepatan dalam memperoleh
pola yang model yang diinginkan. Model dapat diperoleh
kurang dari 3 epoch dalam setiap percobaan. Data yang makin
banyak akan mempengaruhi waktu latih pada setiap epochnya
ini ditunjukan oleh data epoch yang makin besar jika data latih
semakin banyak.
Hasil Prediksi sudah baik ini ditunjukan dengan diagram
perbandingan antara data hasil prediksi dan data testing yang
berhimpitan dam gambar yang ada. Algoritma MLP secara
keseluruhan menunjukan performansi yang baik.
Fungsi aktivasi yang digunakan cocok untuk kasus ini yaitu
dengan menggunakan fungsi aktivasi linear.
IV. KESIMPULAN DAN SARAN
Algoritma MLP menunjukan performansi yang baik dalam
mengenali data training ini ditunjukan dengan sedikitnya
epoch yang dibutuhkan untuk mengenali suatu data. Kecepatan
mengenali data dipengaruhi oleh banyaknnya data, semakin
banyak data maka semakin lama waktu yang dibutuhkan pada
setiap epoch. Fungsi aktivasi linear cocok digunakan pada
kasus ini karena menghasilkan nilai prediksi yang hampir sama
dengan data testing. Hasil prediksi yang hampir sama dengan
data testing menunjukan kemampuan dari sistem untuk
generalisasi data yang baik.
Saran kedepan percobaan menggunakan data yang lebih
banyak, fungsi aktivasi yang lebih bervariasi dan perubahan
arsitektur jaringan agar memperoleh hasil analisa yang lebih
menyeluruh.

DAFTAR PUSTAKA
[1] Ekawijana. A, Perbandingan Performansi antara Algoritma Greedy
dan A* Dalam Kotak Delapan, IRD Journal,Widyatama, 2016
[2] Guresen E, Kayakutlu G, Daim TU, Using artificial neural network
models in stock market index prediction, Elsevier, 2011
[3] Suyanto, Intelijensia Buatan, Teknik Informatika, STT Telkom,2002
[4] Hagan MT, dkk, Neural Network Design, Martin Hagan, 2014
[5] Qu. R., Introduction to Artificial Intelligence, School of Computer
Science, The University of Nottingham, 2001.
[6] Riyanto. B, Intelegensia Artifisial dan Komputasional, STEI, ITB,2003