Abstract

This study aims to analyze sentiment towards the transfer of new capitals derived from comments on the tweeter. The method used in this research is Naïve Bayes Classifier, a classic method that has a pretty good accuracy. Naive Bayes Classifier is a probabilistic classification based on the Bayes theorem, taking into account naïv independence assumptions. In addition to using the naïve bayes method, in this study the researchers also used word weighting. The weighting word used is TF-IDF, which is a combination of term frequency and inverse document frequency. By using 3 testing methods, namely Confusion matrix, Precission and Recall, and K-Fold Cross Validation. The results obtained in this study are 3 document classifications, namely Positive, Negative and Neutral. Testing is done by dividing the document into 2 subsets, namely training data and test data and the resulting accuracy of 64.6%.

Pendahuluan

Pemindahan ibukota menjadi isu yang hangat dibicarakan di media sosial. Pemerintah berencana memindahkan ibukota ke pulau Kalimantan. Dikutip dari laman berita liputan 6 pada tanggal September 26, 2019, presiden Jokowi membenarkan tentang pemindahan ibukota tersebut. Namun untuk kota yang akan dijadikan sebagai ibukota masih dilakukan analisa lebih dalam oleh pemerintah. Ibukota Negara sendiri merupakan kota yang menjadi tempat pusat kedudukan suatu Negara baik administratif, legislatif, eksekutif, dan yudikatif suatu Negara. Tentunya kabar tentang pemberitaan tersebut banyak ditanggapi oleh netizen di media sosial[1].

Perkembangan media sosial saat ini memang sudah tidak bisa terbendung[2][3]. Media sosial telah digunakan oleh sebagian besar masyarakat Indonesia. Dikutip dari laman resmi kominfo pada September 26, 2019 bahwa pengguna internet di Inodenesia sebanyak 63 Juta pengguna dan 95% pengguna tersebut menggunakan internet sebagai media sosial. Menurut data dari PT Bakrie Telecom, twitter memiliki 19,5 Juta Pengguna di Indonesia.

Pada penelitian ini penulis mencoba menggali lebih dalam sentimen masyarakat tentang rencana pemindahan ibukota. Menurut Kamus Besar Bahasa Indonesia, sentimen merupakan pendapat yang didasarkan atas perasaan yanqg berlebihan terhadap sesuatu. Sentimen disini dilontarkan kedalam bentuk tulisan di media sosial dan merupakan komentar publik terhadap kondisi tertentu. Komentar tersebut akan diolah untuk menjadi informasi dengan menggunakan suatu tools dan menghasilkan data mining berupa teks. Teks mining mempunyai tujuan untuk menggali data dan informasi dari beberapa dokumen. Sumber data yang digunakan dalam teks mining berasal dari kalimat atau sekumpulan teks yang memiliki format tidak terstruktur ataupun semi terstruktur[4].

Untuk mengolah data ini penulis menggunakan metode Naïve Bayes untuk menentukan sentimen positif , negative, dan netral terkait masalah diatas. Naïve bayes juga sudah digunakan oleh Agnes Rossi Trisna Lestari untuk menganalisa Sentimen Tentang Opini Pilkada Dki 2017 Pada Dokumen Twitter Berbahasa Indonesia Menggunakan Näive Bayes dan Pembobotan Emoji[5]. Dari penelitian tersebut didapatkan tingkat akurasi sistem pada pembobotan tekstual sebesar 68,52%, pada pembobotan nontesktual 75,93%, dan pada penggabungan kedua pembobotan 74,81%, dengan kesimpulan penggabungan kedua pembobotan dapat menambah akurasi sistem. Selain itu penelitian oleh Didik Garbian Nugroho juga menggunakan metode naïve bayes untuk menganalisa sentimen publik terhadap ojek online. Diperoleh kesimpulan dari penelitian tersebut yakni tingkat akurasi mencapai 80% berdasarkan 800 data tweet yang terdiri dari 300 data latih dan 500 data uji[6].

Naïve Bayes Classifier memang banyak digunakan untuk melakukan penelitian terhadap analisa sentimen publik di suatu website maupun media sosial. Naïve bayes classifier merupakan teknik pembelajaran mesin yang berbasis probabilistik[7][8]. Naïve bayes merupakan metode yang cukup sederhana untuk klasifikasi terhadap teks namun memiliki akurasi dan performasi yang cukup tinggi. Analisa sentimen yang dibangun dengan menggunakan metode naïve bayes memiliki akurasi 83%. Perbandingan metode Naïve Bayes, KNN, dan gabungan dari K-Means dan LVQ dalam mengklasifikasi kategori buku berbahasa Indonesia dengan jumlah data 200 buku yang terdiri dari 150 buku sebagai data latih dan 50 buku sebagai data uji. Hasil dari penelitian tersebut didapatkan tingkat akurasi metode KNN sebesar 96%, Naïve Bayes 98%, dan K-Means kombinasi LVQ 92,2%.

Perbandingan beberapa metode seperti metode Naïve Bayes, K-nearest Neighbor, dan gabungan K-means dan LVQ dalam mengklasifikasikan kategori buku berbahasa Indonesia dengan data yang digunakan berjumlah 200 buku dengan variabel berupa judul buku dan synopsis buku dan dibagi menjadi 150 buku digunakan sebagai data latih, sedangkan 50 buku digunakan sebagai data uji. Dari hasil penelitian yang dilakukan, metode KNN memperoleh akurasi sebesar 96%, kemudian Naïve Bayes sebesar 98%, lalu kombinasi K-Means dan LVQ menghasilkan akurasi sebesar 92,2%. Naïve bayes mendapatkan hasil akurasi tertinggi [2]. Dari penelitian yang dilakukan oleh Ni Wayan Sumartini Saraswati tentang sentimen analisis dihasilkan bahwa metode SVM dan NBC memiliki tingkat akurasi yang sama baiknya. SVM unggul pada klasifikasi opini positif sedangkan Naïve Bayes Classifier lebih unggul pada klasifikasi opini negatif, data yang digunakan yaitu opini Bahasa Indonesia pada twitter[4].

Berdasarkan latar belakang ini penulis melakukan penelitian terhadap sentiment masyarakat di media sosial twitter tentang pemindahan ibukota negara dengan menggunakan metode Naïve Bayes Classifier. Naïve bayes classifier dipilih karena memiliki metode yang tidak rumit namun bisa menghasilkan akurasi yang baik. Hasil yang akan diperoleh dari penelitian ini berupa klasifikasi sentimen masyarakat yang terbagi menjadi 3 klasifikasi yaitu positif, netral, dan negatif.

Metode Penelitian

Pengumpulan data

Metode pengumpulan data yang digunakan adalah dengan 2 cara, yaitu studi literasi yang berasal dari buku serta jurnal tentang Analisa sentimen, Pembobotan kata, serta teks mining. Yang kedua melakukan proses crawling data twitter dengan menggunakan RStudio dengan kata kunci ibukota baru dan ibukota pindah dengan mention twitter kepada akun @jokowi, @tribunnews, @kompas dan @pak_jk. Data tersebut nantinya akan dibagi menjadi 2 bagian, yaitu data latih dan data uji, sebelum itu, data tersebut dilakukan tahap pre-processing atau pembersihan data.

Tahap Preprocessing

Tahap preprocessing disini adalah pembersihan data, fungsi dari tahap ini adalah agar akurasi yang didapat menjadi baik. Tahap preprocessing terdiri dari 4 bagian, yaitu[9][10] :

  1. Tahap Case Folding : Tahap ini merupakan proses mengubah seluruh kalimat menjadi huruf kecil
  2. Tahap Tokenizing : Tahap ini adalah tahap pemenggalan kalimat menjadi string/kata.
  3. Tahap Stemming : Tahap ini merupakan merubah kata menjadi kata dasarnya.
  4. Tahap Tagging : Tahap ini hanya dilakukan pada dokumen yang memiliki kata lampau, seperti Bahasa inggris, untuk dokumen berbahasa Indonesia tidak dilakukan tahap ini.

Pembobotan Kata

Pembobotan kata adalah pemberian nilai pada tiap kata berdasarkan indeks. Pembobotan kata yang digunakan pada penelitian ini adalah dengan TF IDF. TF IDF merupakan hasil perkalian dari Term Frequency atau jumlah kemunculan kata pada tiap dokumen serta Inverse Document Frequency atau kemunculan sebuah term dalam dokumen yang paling sedikit. Rumus dari TF IDF yaitu pada (1):

W𝑡𝑓𝑡,𝑑: Nilai term frequency

idf𝑡: Nilai Inverse Document Frequency

Naïve Bayes Classifier

Naïve Bayes Classifier merupakan metode yang sangat sering digunakan dalam data mining maupun teks mining, kemudahan dalam penggunaan metode ini adalah menjadi alasan digunakannya metode ini[11]. Naïve bayes Classifier merupakan metode pengklasifikasian probabilistik berdasarkan teorema bayes dengan mempertimbangkan asumsi kemandirian naïve. Selain penggunaan metode yang mudah, akurasi yang didapat dari metode ini cukup akurat. Berikut persamaan umum dalam (2) metode naïve bayes :

P(Cj|Wi) :Posterior, adalah kemunculan peluang pada kategori j tertentu ketika terdapat kemunculan kata i

P(Cj):Prior, adalah peluang kemunculan dokumen pada kategori j

P(Wi|Cj) : Likelihood atau Conditional Probability, adalah peluang sebuah kata i masuk ke dalam kategori j

P(Wi) : Evidence, adalah peluang kemunculan sebuah kata

i : indeks kata yang berawal dari 1 sampai dengan kata ke-k

j : indeks kategori yang berawal dari 1 sampai dengan kategori ke-n

Menghitung jumlah dokumen pada kategori tertentu digambarkan pada persamaan (3) berikut:

N(Cj) : jumlah dokumen latih yang masuk dalam kategori j

N : jumlah keseluruhan dokumen

Multinomial Model merupakan model probabilitas yang peneliti gunakan. Berikut merupakan persamaan (4) Multinomial Model

Count( w,c ) = jumlah kemunculan kata w pada kategori c

Count( c ) = jumlah total kemunculan semua kata pada kategori c

|V| = jumlah term unik atau fitur

Rencana Pengujian

Pengujian perhitungan akan dilakukan dengan 3 pengujian, yaitu :

Confusion Matrix

Confusion matrix atau error matrix adalah sebuah metode perhitungan akurasi terhadap sebuah sistem pada konsep data mining. Terdapat 4 istilah di dalam Confusion matrix yaitu, True Positif (TP), True Negatif (TN), False Positif (FP), dan False Negatif (FN).

Precision and Recall

Precision merupakan tingkat ketepatan antara informasi yang diminta dengan jawaban yang diberikan oleh sistem. Sedangkan Recall merupakan tingkat keberhasilan sistem menemukan kembali sebuah informasi.

Cross Validation

Cross Validation adalah metode statistik untuk mengukur kinerja model algoritma dimana data dipisahkan menjadi 2 subset, yaitu data latih dan data uji. Pada penelitian ini penulis menggunakan 10 k-fold cross validation.

Hasil Penelitian Dan Pembahasan

Input Data

Data yang dibutuhkan untuk melakukan sebuah percobaan yaitu dokumen yang mempunyai format csv. Dokumen yang di masukkan nantinya juga memiliki 2 kolom, yaitu kolom kalimat dan kolom kategori. Sebelumnya dokumen sudah diberikan kategori secara manual. Dokumen didapat dengan 2 cara, yaitu:

  1. Crawling data dari twitter menggunakan RStudio dengan keyword Ibukota Pindah dan Ibukota Baru
  2. Pencarian secara manual di twitter dengan keyword Ibukota Baru dan Ibukota Pindah dengan tujuan akun @jokowi, @TribunNews, @Kompascom, dan @pak_JK.

Dokumen yang didapat dari kedua jenis pencarian yaitu :

  1. 123 Dokumen dengan Kategori Positif.
  2. 173 Dokumen dengan Kategori Negatif.
  3. 204 Dokumen dengan Kategori Netral.

Preproses

Preproses merupakan proses yang dilakukan sebelum proses perhitungan, fungsi dari proses ini adalah membersihkan data dari hal – hal yang tidak diperlukan, misalnya simbol, angka, spasi, kata yang tidak diperlukan, dan lainnya. Preproses ini secara umum dibagi menjadi 4 tahapan yang telah dijelaskan pada poin 2.2.

Pada penelitian ini peneliti menggunakan library sastrawi yaitu library yang berasal dari stemmer nadzief adriani yang telah dilakukan penyempurnaan. Library Sastrawi digunakan karena library ini merupakan library yang dibangun berdasarkan algoritma Nadzief dan Adriani yang mempunyai tingkat akurasi baik dalam stemming bahasa indonesia. Library ini juga telah mendapat perbaikan dari algoritma aslinya.

Pada penelitian ini peneliti juga memasukkan proses stopword removal yaitu proses menghilangkan atau menghapus kata yang terlalu banyak muncul atau tidak diperlukan dalam perhitungan, fungsi dari proses ini adalah untuk memperbesar presentase proses klasifikasi data uji. Berikut merupakan Table 1 daftar stopword yang telah penulis susun :

'gue', 'sedang', 'jadi', 'serta', 'tiap', 'pas', 'sih', 'kan', 'kita', 'siapa', 'biar', 'tahun', 'makin', 'aja', 'saja', 'demi', 'lah', 'bikin', 'apalagi', 'saja', 'memang', 'lain', 'supaya', 'para', 'karena', 'akan', 'kota', 'atau', 'bangun', 'sudah', 'harus', 'mana', 'tapi', 'nanti', 'sekarang', 'seperti', 'buat', 'rakyat', 'masih', 'lagi', 'sama', 'nya', 'bisa', 'bagaimana', 'belum', 'bukan', 'jangan', 'presiden', 'republik', 'perintah', 'kalimantan', 'lebih', 'baik', 'apa', 'jakarta', 'negara', 'indonesia', 'mau', 'joko', 'widodo', 'di', 'pindah', 'juga', 'itu', 'ada', 'dari', 'untuk', 'ini', 'pak', 'banyak', 'dengan', 'dan', 'kalau', 'ke', 'jadi', 'x', 'd', 'ya', 'yang', 'yg', 'tidak', 'tdk', 'gak', 'ibukota', 'baru', 'saya', 'aku', 'gua', 'gw', 'kamu', 'anda', 'lo', 'lu', 'loe', 'bas', 'kayak', 'ingin', 'benar',
Table 1.Daftar Stopword

Bagi data

Data yang didapat dari twitter dibagi menjadi 2 subset yaitu data latih serta data uji. Pembagian dilakukan secara acak. Dokumen dibagi menjadi 60% data latih serta 40% data uji dari total 500 data. Pembagian data secara acak dilakukan guna mendapatkan nilai rata – rata akurasi yang didapatkan dari beberapa percobaan.

Proses Data Latih

Setelah pembagian data latih, proses selanjutnya adalah menghitung probabilitas pada data latih. Perhitungan ini dibagi menjadi beberapa sub berikut.

Perhitungan Term Frequency

Term frequency merupakan banyaknya kemunculan kata dalam satu dokumen. Karena fokus pada pembobotan pada penelitian ini adalah TF-IDF sehingga perhitungan term frequency hanya dilakukan dengan mencari kata per kata dalam sebuah kalimat tanpa harus menggunakan rumus.

Perhitungan TF-IDF

TF-IDF merupakan hasil perkalian dari nilai term frequency dan inverse document frequency. Nilai term frequency telah dibahas pada sub bab sebelumnya. Nilai inverse document frequency didapatkan dari log(seluruh dokumen/document frequency). Document frequency merupakan banyaknya dokumen dimana sebuah kata muncul. Sama halnya dengan term frequency, document frequency pun tak memerlukan rumus untuk menghitung nilainya, hanya dengan mengecek jumlah seluruh kata yang sama dan muncul pada berapa dokumen. Hasil yang penulis lampirkan pada tabel berikut hanya 5 baris awal dan 5 baris akhir dari seluruh jumlah baris dalam Table 2 TF-IDF.

idterm term tf df Idf = Log(d/df) tf*idf
1 acara 1 2 Log(300/2) = 2,17319 1 * 2,17319 = 2,17319
2 taxiway 1 1 Log(300/1) = 2,47422 1 * 2,47422 = 2,47422
3 landas 1 1 Log(300/1) = 2,47422 1 * 2,47422 = 2,47422
4 udara 1 1 Log(300/1) = 2,47422 1 * 2,47422= 2,47422
5 tadi 1 1 Log(300/1) = 2,47422 1 * 2,47422 = 2,47422
2535 moga 1 12 Log(300/12) = 1,39504 1 * 1,39504 = 1,39504
2536 manfaat 1 4 Log(300/4) = 1,87216 1 * 1,87216 = 1,87216
2537 dapat 1 9 Log(300/9) = 1,51977 1 * 1,51977 = 1,51977
2538 rejeki 1 1 Log(300/1) = 2,47422 1 * 2,47422 = 2,47422
2539 barokah 1 1 Log(300/1) = 2,47422 1 * 2,47422 = 2,47422
Table 2.TF-IDF

Perhitungan NKelas

NKelas merupakan total nilai TF-IDF pada sebuah kata pada sebuah kategori. Misal kata “lahan” mempunyai nilai TF-IDF sebesar 1,69607 dan kata “lahan” muncul pada dokumen berkategori negatif sebanyak 6 kali. Sehingga nilai dari NKelas untuk kata “lahan” pada kategori Negatif yaitu 6 x 1,69607 = 10,17642. Sedangkan kata “lahan” tidak pernah muncul pada dokumen berkategori Positif dan Netral, sehingga nilai dari NKelas untuk kata “lahan” pada kategori Positif dan Netral adalah 0.

Perhitungan Probabilitas Kelas

Probabilitas kelas merupakan Multinominal Naïve Bayes, tahap ini adalah tahap akhir dari prose data latih, karena pada tahap ini telah didapat nilai probabilitas pada tiap kata di tiap kategori. Nilai ini yang nantinya dijadikan acuan sebagai perhitungan proses Data Uji.

Berikut Contoh perhitungan pada kata “acara” :

Positif :

Kata acara mempunyai nilai NKelas Positif sebesar 0.

Jumlah kata pada Kategori Positif yaitu 663.

Jumlah seluruh kata unik dalam data latih yaitu 1242. Sehingga didapat perhitungan sebagai berikut (5):

Sehingga nilai Probabilitas kata “acara” pada Kategori Positif yaitu sebesar 0,00052

Negatif :

Kata acara mempunyai nilai NKelas Negatif sebesar 0.

Jumlah kata pada Kategori Negatif yaitu 916.

Jumlah seluruh kata unik dalam data latih yaitu 1242. Sehingga didapat perhitungan sebagai berikut (6) :

Sehingga nilai Probabilitas kata “acara” pada Kategori Negatif yaitu sebesar 0,00046

Netral :

Kata acara mempunyai nilai NKelas Netral sebesar 4,34638.

Jumlah kata pada Kategori Netral yaitu 960.

Jumlah seluruh kata unik dalam data latih yaitu 1242. Sehingga didapat perhitungan sebagai berikut (7) :

Sehingga nilai Probabilitas kata “acara” pada Kategori Netral yaitu sebesar 0,00243

Hasil yang penulis lampirkan pada tabel berikut hanya 5 baris awal dan 5 baris akhir dari seluruh jumlah baris dalam tabel Probabilitas Kelas,

term Probabilitas Kelas
Positif Negatif Netral
acara 0.00052 0.00046 0.00243
taxiway 0.00052 0.00046 0.00158
landas 0.00052 0.00046 0.00158
udara 0.00052 0.00046 0.00158
tadi 0.00052 0.00046 0.00158
moga 0.01151 0.00046 0.00045
manfaat 0.00151 0.0022 0.0013
dapat 0.00451 0.00046 0.00322
rejeki 0.00182 0.00046 0.00045
barokah 0.00182 0.00046 0.00045
Table 3.Probabilitas Kelas

Data Uji

Setelah dilakukan proses data latih, selanjutnya adalah proses pengujian data. Data uji merupakan 40% dari total 500 data yang telah dibagi secara acak pada tahap Bagi Data. Proses pengujian diawali dengan menghitung nilai prior. Nilai prior merupakan nilai kemunculan suatu dokumen dalam sebuah kategori., yaitu jumlah dokumen dalam sebuah kategori dibagi dengan seluruh dokumen data latih.

Prior Positif = 74/300 = 0,24666666666667

Prior Negatif = 97/300 = 0,32333333333333

Prior Netral = 129/300 = 0,43

Setelah prior didapat, barulah dokumen akan dipecah menjadi string, dan nilai probabilitas string akan dikalikan dengan nilai prior tersebut.

Hasil yang dicantumkan pada Table 4 di bawah ini merupakan hasil dari perhitungan 10 dokumen teratas pada data uji.

Kalimat Positif Negatif Netral Prediksi
gerindra bilangin prabowo menteri tahan tahan pulau lapis alutsista infrastruktur tahan langsung batas malaysia laut china selatan satu infantri tambah 4,0344173853058E-44 2,4195105598393E-45 1,7060704364215E-43 Netral
acara taxiway landas udara tadi hendak inspirasi arsitek lupa masuk lapang raksasa 8,4556834634406E-40 3,7556943056786E-39 1,4983071571131E-33 Netral
kosong besok najam pasir 5,7921122133333E-14 5,667315598E-13 1,8055872E-13 Negatif
niat balik hindar praktik sembah berhala kronis 0,00012826666666667 0,0010476 0,0001935 Negatif
rumah punya jamban rumah kolong jalan tol 1,3317279894187E-20 8,4238670623333E-20 5,404840712064E-17 Netral
lari masalah gerindra ahok 8,6071866666667E-7 5,38059E-7 2,554587E-6 Netral
sayembaran gagas desain warganet sekali bulan agustus lalu umum ibu timur 8,66662806382E-31 1,534773785933E-32 1,3658006140257E-29 Netral
mega proyek hambalang mega proyek moga nasib hambalang 3,5082123073365E-22 7,4945851702288E-20 1,6067786484375E-24 Negatif
agustus lalu cara resmi umum timur rencana sebut mulai 8,4081878901902E-25 1,811566455061E-24 3,9815304203167E-23 Netral
triliun hongkong demikian peras naik tagih bpjs 8,804224E-11 1,0292365517E-7 1,0361925E-10 Negatif
Table 4.Hasil Proses Data Uji 10 Dokumen

Pengujian

Dalam sebuah penelitian, tahap pengujian adalah hal yang sangat penting, tahap pengujian ini bisa menyimpulkan seberapa besar presentase dari metode yang digunakan dalam penelitian bisa berjalan. Dalam penelitian ini, penulis menggunakan 3 tahapan metode pengujian, yaitu :

Confussion Matrix

Confussion matrix atau matrix error ini digunakan untuk memasukkan menjabarkan nilai kebenaran dan nilai error yang dihasilkan dalam data uji ke dalam sebuah matrik. Pada umumnya confussion matrix terdiri dari matrix 2 x 2, namun pada penelitian ini, penulis menggunakan matrix 3 x 3 dikarenakan jumlah kategori yang dihasilkan dari proses klasifikasi pada penelitian ini berupa 3 klasifikasi. Berikut Table 5 Confussion Matrix :

Kategori
Prediksi Positif Negatif Netral
Positif PP NgP NtP
Negatif PNg NgNg NtNg
Netral PNt NgNt NtNt
Table 5.Confussion Matrix 3 x 3

Baris Kolom yang berwarna biru merupakan klasifikasi yang terprediksi dengan benar dan kolom baris yang berwarna oranye terprediksi salah oleh sistem.

Keterangan :

PP = Kategori Positif yang terprediksi Positif (Benar).

NgP = Kategori Negatif yang terprediksi Positif (Salah).

NtP = Kategori Netral yang terprediksi Positif (Salah).

PNg = Kategori Positif yang terprediksi Negatif (Salah).

NgNg = Kategori Negatif yang terprediksi Negatif (Benar).

NtNg = Kategori Netral yang terprediksi Negatif (Salah).

PNt = Kategori Positif yang terprediksi Netral (Salah).

NgNt = Kategori Negatif yang terprediksi Netral (Salah).

NtNt = Kategori Netral yang terprediksi Netral (Benar).

Berikut merupakan tampilan dari Confussion matrix pada sistem, Figure 1.

Figure 1.Tampilan Confussion Matrix

Dari tampilan diatas dapat disimpulkan bahwa 23 dokumen terklasifikasi positif dengan benar, 59 dokumen terklasifikasi negative dengan benar, dan 51 dokumen terklasifikasi netral dengan benar. Selain itu dokumen terklasifikasi salah oleh sistem. Nilai diatas adalah acuan perhitungan dari metode pengujian selanjutnya, yaitu precision and recall.

Precission and Recall

Precision merupakan tingkat ketepatan antara informasi yang diminta dengan jawaban yang diberikan oleh sistem.

Sedangkan Recall merupakan tingkat keberhasilan sistem menemukan kembali sebuah informasi.

Mengacu pada tabel Confussion matrix, perhitungan untuk precission serta recall pada matrixs 3 x 3 adalah sebagai berikut :

Precission Positif = PP / PP+NgP+NtP x 100% = 23 / 23+8+7 x 100% = 60,5%

Precission Negatif = NgNg / PNg+NgNg+NtNg x 100% = 59 / 15+59+17 x 100% = 64,8%

Precission Netral = NtNt / PNt+NgNt+NtNt x 100% = 51 / 11+8+51 x 100% = 72,8%

Recall Positif = PP/ PP+PNg+PNt x 100% = 23 / 23+15+11 x 100% = 49,9%

Recall Negatif = NgNg / NgP+NgNg+NgNt x 100% = 59 / 8+59+8 x 100% = 78,6%

Recall Netral = NtNt / NtP+NtNg+NtNt x 100% = 51 / 7+17+51 x 100% = 68%

Akurasi Program = PP+NgNg+NtNt / Jumlah Dokumen Data Uji = 23+59+51 / 200 = 66,83%

Berikut merupakan tampilan dari hasil precision and recall dan akurasi, Figure 2 :

Figure 2.Tampilan Precission, Recall dan Akurasi

Hasil Figure 2, diatas akan menjadi acuan untuk menghitung metode pengujian yang terakhir, yaitu K-Fold Cross Validation.

K-Fold Cross Validation

Cross Validation adalah metode statistik untuk mengukur kinerja model algoritma dimana data dipisahkan menjadi 2 subset, yaitu data latih serta data uji. Pada penelitian ini penulis menggunakan 10 K-Fold Cross Validation, artinya penulis membagi data menjadi 2, yaitu data uji dan data latih yang dibagi secara acak dan untuk mendapatkan nilai pengujian dari metode uji ini adalah dengan melakukan 10 kali percobaan sehingga didapat nilai rata – rata akurasi dari sistem ini. Penulis telah melakukan 10 kali percobaan, dan berikut merupakan Table 6 akurasi sistem dari masing – masing percobaan.

Percobaan Ke - Nilai Akurasi
1 58.7 %
2 64.8 %
3 64.8 %
4 64.8 %
5 64.8 %
6 64.8 %
7 64.8 %
8 64.8 %
9 66.8 %
10 66.8 %
Table 6.10 K-Fold Cross Validation

Untuk menghitung rata – rata akurasi maka menjumlahkan 10 hasil akurasi tersebut dan membaginya dengan 10.

Rata – rata = 58,7% + 64,8%+ 64,8% + 64,8%+ 64,8% + 64,8% + 64,8% + 64,8% + 66, 8% + 66,8% / 10 = 64,6%

Dari hasil ketiga metode uji didapatkan hasil akurasi program sebesar 64,6%.

Kesimpulan

Dari penelitian yang sudah dilakukan dapat disimpulkan bahwa prediksi dilakukan dengan menggunakan 3 kategori, yaitu Positif, Negatif dan Netral dengan menggunakan Metode Naïve Bayes Classifier dan Pembobotan TF-IDF. Penelitian dilakukan dengan membagi dokumen menjadi 2, yaitu Data Latih sebanyak 300 data dan Data Uji sebanyak 200 data dari Total 500 data. Hasil perhitungan dari gabungan antara k-fold cross validation, Precision Recall, dan coffussion Matrix didapat hasil akurasi sebesar 64,6%.

References

  1. Referensi / acuan utama yang digunakan dalam penelitian ialah jurnal nasional / internasional dan prosiding. Semua referensi sebaiknya up-to-date dengan perkembangan keilmuan dan ditulis dengan menggunakan Vancouver style. Silahkan menggunakan format – format yang telah disediakan dalam panduan penulisan makalah ini :
  2. Jurnal:
  3. Penulis1 A, Penulis2 A. Judul Makalah. Nama jurnal atau singkatannya. tahun; Vol.(Issue): halaman.
  4. Minarno, Agus Eko, and Nanik Suciati. "Batik Image Retrieval Based on Color Difference Histogram and Gray Level Co-Occurrence Matrix." TELKOMNIKA (Telecommunication Computing Electronics and Control) 12.3 (2014): 597-604.
  5. Prosiding:
  6. Jika prosiding terdiri dari beberapa volume :
  7. Penulis1 A, Penulis2 B. Judul Makalah. Nama conference atau seminar. Kota. Tahun; volume.
  8. Kusuma, Wahyu Andhyka, and Lailatul Husniah. "Skeletonization using thinning method for human motion system." Intelligent Technology and Its Applications (ISITIA), 2015 International Seminar on. IEEE, 2015; Vol 1.
  9. Jika prosiding terdiri dari satu volume :
  10. Penulis1 A, Penulis2 B. Judul Makalah. Nama conference atau seminar. Kota. Tahun.
  11. Minarno, Agus Eko, et al. "Texture feature extraction using co-occurrence matrices of sub-band image for batik image classification." Information and Communication Technology (ICoICT), 2014 2nd International Conference on. IEEE, 2014.
  12. Buku:
  13. Jika refrensi merujuk pada beberapa halaman pada buku
  14. Penulis1 A, Penulis2 B. Judul Buku. Edisi. Kota: Penerbit. tahun: halaman.
  15. RC. Gonzales, RE. Woods. Digital image processing. 3rd edition. Prentice Hall. 2007: 424:447.
  16. Jika referensi mengacu pada sebagian halaman pada buku :
  17. Penulis1 A, penulis2 B. Judul Buku. Kota: Penerbit. Tahun.
  18. Ward J, Peppard J. Strategic planning for Information Systems. Fourth Edition. West Susse: John Willey & Sons Ltd. 2007.
  19. Buku Terjemahan:
  20. Penulis Asli. Tahun. Judul buku yang diterjemahkan. Penerjemah. Kota: Penerbit yang menerjemahkan buku. Tahun buku di terjemahkan.
  21. Pabla. 2004. Sistem Distribusi Tenaga Listik. Abdul Hadi. Jakarta: Erlangga. 2007.
  22. Thesis/Disertation:
  23. Penulis. Judul Thesis/Disertasi. Thesis/Disertasi. Kota & Nama Universitas; Tahun.
  24. Rusdi M. A Novel Fuzzy ARMA Model for Rain Prediction in Surabaya. PhD Thesis. Surabaya: Postgraduate ITS; 2009.
  25. Paten:
  26. Penulis1 A, Penulis2 B.. Judul Patent. Nomer Paten (Paten). Tahun Publikasi.
  27. Ahmad LP, Hooper A. The Lower Switching Losses Method of Space Vector Modulation. CN103045489 (Patent). 2007.
  28. Standar:
  29. Nama standar/Institusi. Nomer Standar. Judul Standar. Tempat publikasi. Penerbit. Tahun Publikasi.
  30. ISO/IEC. 9126-1:2001. Software engineering -- Product quality. New York: IEEE Press; 2001.
  31. If your references are from Reports
  32. Penulis/Editor (jika ada editor letakkan ed. Didepan nama editor). Judul. Organisasi. Nomer Laporan:. Tahun Publikasi.
  33. James S, Whales D. The Framework of Electronic Goverment. U.S. Dept. of Information Technology. Report number: 63. 2005.