Refine Search

New Search

Results in Journal INSYST: Journal of Intelligent System and Computation: 47

(searched for: journal_id:(6182712))
Page of 1
Articles per Page
by
Show export options
  Select all
Michael Lee Lee, Anang Kukuh Adisusilo, Noven Indra Prasetya
Published: 30 April 2022
by 10.52985
Journal of Intelligent System and Computation, Volume 4, pp 16-21; https://doi.org/10.52985/insyst.v4i1.191

The publisher has not yet granted permission to display this abstract.
Bernard Niklas Satrijo, , Lukman Zaman Pcsw, Pickerling Pickerling
Published: 30 April 2022
by 10.52985
Journal of Intelligent System and Computation, Volume 4, pp 32-44; https://doi.org/10.52985/insyst.v4i1.208

The publisher has not yet granted permission to display this abstract.
Wildan Muhammad Aminuddin, Ghulam Asrofi Buntoro, Fauzan Masykur
Published: 30 April 2022
by 10.52985
Journal of Intelligent System and Computation, Volume 4, pp 22-31; https://doi.org/10.52985/insyst.v4i1.211

The publisher has not yet granted permission to display this abstract.
Iwan Chandra
Published: 30 April 2022
by 10.52985
Journal of Intelligent System and Computation, Volume 4, pp 01-06; https://doi.org/10.52985/insyst.v4i1.215

The publisher has not yet granted permission to display this abstract.
Andri Suhartono
Published: 30 April 2022
by 10.52985
Journal of Intelligent System and Computation, Volume 4, pp 07-15; https://doi.org/10.52985/insyst.v4i1.222

The publisher has not yet granted permission to display this abstract.
Robby Darmawan, Aris Nasuha, Lukman Zaman, Hendrawan Armanto
Journal of Intelligent System and Computation, Volume 3, pp 61-72; https://doi.org/10.52985/insyst.v3i2.194

Abstract:
Sebagai pelaku bisnis, kartu nama adalah salah satu hal yang penting untuk bertukar informasi. Namun kartu nama biasanya mudah hilang atau rusak, sehingga beberapa orang biasanya menyimpan informasi dari kartu nama itu pada telepon genggam atau komputer mereka. Penelitian ini akan membuat sistem manajemen kartu nama baik individu dan juga perusahaan dengan ekstraksi informasi kartu nama otomatis untuk mempermudah pengguna perorangan ataupun perusahaan dalam melakukan penyimpanan kartu nama para kolega. Untuk mewujudkan aplikasi yang dilengkapi dengan fitur tersebut dilakukan proses pengenalan karakter pada gambar kartu nama menggunakan Tesseract OCR dan information extraction memanfaatkan klasifikasi entity dengan membangun classifier menggunakan Naive Bayes dan mengkombinasikannya dengan rule based. Hasil uji coba yang telah dilakukan mendapatkan performa 85.1% untuk pengenalan karakter dan 86% untuk pengklasifikasian entity. Dilakukan juga uji coba fungsionalitas terhadap setiap fitur pada sistem ini dengan menggunakan metode blackbox testing yang memastikan setiap aksi yang dilakukan pengguna akan menghasilkan output sesuai target yang diharapkan. Selain itu, dari hasil kuisioner yang berisikan tentang usability dari sistem ini, sebagian besar responden merasa terbantu dalam memanajemen kartu nama dengan menggunakan sistem aplikasi ini.
Syabith Umar Ahdan, Joan Santoso, Hendrawan Armanto
Journal of Intelligent System and Computation, Volume 3, pp 85-92; https://doi.org/10.52985/insyst.v3i2.195

Abstract:
Berkembangnya teknologi Javascript khususnya AJAX dan CSS membuat halaman web yang dulunya statis menjadi lebih dinamis dengan tampilan yang lebih menarik dan dipenuhi iklan dan rekomendasi artikel lain. Oleh karena itu, sulit untuk mengotomatisasi proses pengambilan konten artikel pada konteks ini. Penelitian ini dibuat untuk menyelesaikan masalah otomatisasi pengambilan konten artikel di Internet. Aplikasi web yang akan dibuat terbagi menjadi empat modul, yaitu web crawler, web extractor, content classifier dan web visualizer. Penelitian ini memiliki dua desain arsitektur. Arsitektur yang pertama adalah arsitektur saat training. Arsitektur yang kedua adalah arsitektur program jadi. Proses training menggunakan 200 URL halaman web dari lima website berbeda. Metode pengujian yang akan digunakan adalah 4-Fold Cross Validation, sehingga 75% dari blok teks akan menjadi data latihan dan 25% dari blok teks akan menjadi data pengujian. Program jadi berupa Web Visualizer yang mengolah JSON file berisi hubungan antara halaman web yang didapatkan dari web crawler sehingga dapat dipresentasikan dalam sebuah grafik. Kesimpulan dari penelitian ini adalah bahwa kombinasi Scrapy, Splash, Neural Network Classifier dan D3 bekerja sangat baik untuk automasi ekstraksi konten artikel website di Internet sekaligus memvisualisasi hubungan antar halaman web. Deep Feed Forward Neural Network (DFFNN) dapat melakukan klasifikasi multi-class konten judul, penulis, dan isi artikel dengan baik selama template halaman web sudah pernah dilatih sebelumnya. DFFNN juga dapat melakukan klasifikasi binari untuk halaman web secara umum dengan F1-score 62.87%, dua kali lebih baik dari SVM yang hanya 31.28%.
Eka Rahayu Setyaningsih
Journal of Intelligent System and Computation, Volume 3, pp 93-98; https://doi.org/10.52985/insyst.v3i2.193

Abstract:
Pada penelitian ini akan dibahas mengenai sebuah aplikasi yang dibuat secara khusus untuk mengkategorikan opini masyarakat terhadap sebuah berita Sepak Bola. Opini yang diolah diperoleh dari dua sumber, yaitu melalui hasil crawl situs berita olah raga dan opini yang ditambahkan oleh user sendiri pada aplikasi ini. Opini yang ada nantinya akan disajikan secara terpisah menurut kelompoknya; sentiment positive, negative, maupun netral. Proses klasifikasinya sendiri terdiri dari dua tahap. Tahap pertama adalah proses preprocessing yang terdiri atas proses tokenisasi, normalisasi, case folding, stop word removing, common word removing, stemming. Tahap kedua adalah mengklasifikasikan opini-opini tersebut dengan algoritma Baseline, dan Naive Bayes. Opini yang digunakan untuk proses klasifikasi yaitu opini yang menggunakan bahasa Inggris dari situs fifa.com dan goal.com. Dari perhitungan macroaveraged untuk setiap kelas, didapatkan akurasi 93,06%, presisi 81,90%, dan recall 92,67% untuk kelas sentiment positive. Dari perhitungan kelas sentiment negative didapatkan akurasi 87,73%, presisi 96,29%, dan recall 83,63%. Dari perhitungan kelas sentiment netral didapatkan akurasi 92,26%, presisi 64,44%, dan recall 90,37%. Kesimpulan yang diperoleh saat penelitian ini dari awal hingga akhir adalah, proses crawling yang digunakan untuk mendapatkan berita dan komentar berita sangat membantu dalam penambahan konten website, tetapi banyak sekali komentar berita yang diperoleh kurang cocok untuk proses klasifikasi.
, Edwin Sidharta
Journal of Intelligent System and Computation, Volume 3, pp 99-105; https://doi.org/10.52985/insyst.v3i2.189

Abstract:
Pada saat ini, teknologi mobile telah berkembang dengan pesat. Dalam kesehariannya, manusia tidak dapat lepas dari handphone. Hal ini menyebabkan munculnya berbagai aplikasi dan game yang bertujuan tentu saja untuk membantu ataupun memberikan kesenangan kepada penggunanya. Saat ini perkembangan game, juga sangat pesat dan telah mencapai titik dimana berbagai jenis game dikembangkan. Tidak hanya berhenti pada perkembangan jenis game, bahkan cara bermain dari game itu sendiri juga ikut berkembang. Yang dulunya permainan mobile dilakukan secara virtual, saat ini permainan sudah menyentuh area Augmented Reality (AR) dimana pemain dapat melihat benda-benda tidak nyata (buatan) dalam dunia nyata (dunia manusia). Walaupun permainan AR semakin berkembang, tetapi masih sedikit permainan AR bergenre Virtual Pet. Penelitian ini bertujuan untuk mengembangkan Permainan Virtual Pet dan mengukur tingkat kesenangan dalam memainkan permainan ini. Permainan dikembangkan dengan menggunakan Unity Game Engine dengan bantuan package AR Foundation dan penyimpanan data pada Firebase. Ujicoba akan dilakukan kepada 40 orang (pria dan wanita) pemain game yang pernah bermain virtual pet sebelumnya. Hasil akhir ujicoba menunjukan bahwa dalam segi teknis permainan berjalan dengan baik dan disukai oleh pemain akan tetapi ada sebagian pemain yang tingkat kesenangannya rendah cenderung menengah hal ini dikarenakan gambar monster yang digunakan kurang menarik dan kurangnya fitur terkait monster itu sendiri.
Indra Tri Saputra
Journal of Intelligent System and Computation, Volume 3, pp 73-77; https://doi.org/10.52985/insyst.v3i2.205

Abstract:
Website koran harian Radar Tarakan memiliki kolom dengan judul “Warga Menulis” di mana menu ini merupakan sarana bagi pembaca untuk menyampaikan keluhan ataupun aspirasi mereka. Yang menjadi permasalahan, pesan pembaca atau opini yang ditampilkan bersifat to the point, hanya isi opini sesuai yang dikirim pembaca tanpa informasi tambahan kepada siapa opini tersebut ditujukan. Tujuan dari penelitian ini adalah melakukan klasifikasi data opini pada website koran harian Radar Tarakan khususnya opini yang berkaitan dengan fasilitas dan pelayanan publik. Klasifikasi merupakan suatu proses pengelompokkan data sesuai dengan kelas atau kategori yang telah ditentukan sebelumnya. Hipotesis yang dapat diambil adalah hasil klasifikasi diharapkan memiliki akurasi hingga 70%. Tahap awal dari proses klasifikasi yaitu preprocessing di mana pada tahap ini hal-hal yang dilakukan antara lain case folding, tokenizing, convert word, stopword removal (filtering) dan stemming. Algoritma yang digunakan dalam penelitian ini adalah Frequency Ratio Accumulation Method (FRAM). Pembuatan aplikasi menggunakan bahasa pemrograman PHP dan database MySQL. Hasil uji coba dari penelitian ini menunjukkan rata-rata akurasi yang diperoleh pada proses klasifikasi opini menggunakan algoritma FRAM adalah 60%. Besar kecilnya prosentase akurasi tergantung dari jumlah data latih yang digunakan. Semakin banyak jumlahnya dapat meningkatkan nilai akurasi akan tetapi hal ini akan berpengaruh terhadap efisiensi kinerja sistem.
Endang Setyati, Raymond Sugiarto
Journal of Intelligent System and Computation, Volume 3, pp 78-84; https://doi.org/10.52985/insyst.v3i2.202

Abstract:
Membaca sebuah tulisan yang sama di bidang melengkung berbeda dengan di bidang datar, karena tulisan pada bidang melengkung bergantung pada permukaan bidang lengkungnya. Pada saat ini, banyak sekali tulisan pada iklan pinggir jalan yang ditempel pada bidang melengkung di sepanjang jalan. Tulisan yang digunakan berupa huruf dan angka, dengan berbagai macam background, bentuk dan warna yang diambil di pinggir jalan dengan menggunakan Farey Shape Context. Fitur Farey ini bergantung pada DSS (Digital Straight Line Segment) endpoint dan menggunakan pecahan Augmented Farey sequence. DSS endpoint ini dijadikan sebagai titik fitur atau feature point untuk menemukan shape context dari citra. DSS endpoint tersebut digunakan sebagai acuan bounding box yang akan digunakan sebagai object boundary yang dimana setiap sudutnya merupakan reference point. Untuk melakukan Binning Farey Rank, Augmented Farey Table (AFT) harus dibentuk terlebih dahulu berdasarkan Augmented Farey Sequence yang merupakan pengembangan dari Farey Sequence. Farey Sequence hanya meliputi pecahan dengan pembilang dan penyebut yang positif, sedangkan Augmented Farey Sequence meliputi pecahan dengan pembilang dan penyebut positif serta negatif. Pada penelitian ini digunakan 500 data iklan di pinggir jalan yang melengkung, dimana 70% digunakan sebagai data sample. Dari 70% data sample tersebut didapatkan ribuan karakter berupa huruf dan angka yang dijadikan data sample. Berdasarkan hasil uji coba penelitian yang dilakukan pada 500 Gambar dimana 30% sebagai data testing, maka hasil Farey Shape Context untuk mengenali tulisan berupa huruf dan angka pada iklan pinggir jalan yang melengkung mencapai akurasi benar 74.94% dan salah 25.06%.
Esther Irawati Setiawan, Sugiharto Johanes, Arya Tandy Hermawan, Yuni Yamasari
Journal of Intelligent System and Computation, Volume 3, pp 55-60; https://doi.org/10.52985/insyst.v3i2.164

Abstract:
Banyaknya berita-berita online sering menarik minat masyarakat untuk membacanya, tetapi kadang dengan terlalu banyaknya berita tersebut membuat orang susah mendapatkan informasi yang terpercaya. Berita palsu merupakan kumpulan kata atau kalimat yang mengandung informasi yang tidak benar yang berupaya untuk membohongi atau mengarahkan pembaca atau pendengarnya agar mendukung atau percaya dengan isi beritanya. Penyebar berita palsu umumnya mengetahui bahwa berita yang disebarkan tidak benar. Tujuan penelitian ini adalah mendeteksi berita palsu yang tersebar pada media sosial. Dalam mengklasifikasi berita palsu, deteksi validitas berita digunakan algoritma naïve bayes sebagai kategorisasi teks berbasis pembelajaran mesin. Penelitian ini juga membangun website yang menyediakan fitur web service, pencarian berita yang ada di Twitter, dan klasifikasi berita secara manual. User interface merupakan website berbasis PHP dimana pengguna dapat melakukan interaksi secara langsung sepeti komentar, login, atau melihat artikel-artikel yang sudah diklasifikasi. Sedangkan back-end dari website ini adalah program klasifikasi teks berbasis Python. Dari percobaan yang telah dilakukan ternyata algoritma Naïve Bayes dapat digunakan untuk mengklasifikasi berita palsu. Berdasarkan eksperimen, penggunaan metode naive bayes untuk deteksi validitas berita dengan data uji media social Twitter dapat mencapai nilai akurasi dengan persentase terbaik yaitu 92% pada data ujicoba sebesar 309 artikel.
Kevin Setiono, Yosi Kristian, Gunawan Gunawan
Journal of Intelligent System and Computation, Volume 3, pp 01-06; https://doi.org/10.52985/insyst.v3i1.172

Abstract:
Internet merupakan salah satu sumber informasi yang sangat mudah diakses dan sangat lengkap pada zaman sekarang ini. Dari banyaknya konten tersebut terdapat konten pornografi yang meresahkan dan memberikan dampak buruk pada perkembangan anak-anak. Hingga tahun 2020 pemblokiran konten pornografi menyumbang 70 persen dibandingkan konten negative lainnya. Metode untuk mencegah/memblokir konten pornografi ada berbagai macam mulai dari memblokir websitenya hingga mendeteksi berdasarkan citra yang ada. Penelitian ini akan mencoba mendeteksi citra pornografi dengan bantuan Deep Convolutional Neural Network. Pembuatan model menggunakan transfer learning hingga fine tuned fine transfer learning dan mencoba model-model state of the art. Penelitian ini menghasilkan model yang mampu mendeteksi citra pornografi dengan akurasi 78%. Selain memiliki akurasi yang cukup tinggi model ini juga mampu mendeteksi bagian-bagian intim dari wanita yang menjadi fitur dari citra pornografi. Kemampuan mendeteksi fitur tersebut telah diujicoba dengan mengubah model yang digunakan penelitian ini sebagai detektor objek pada citra pornografi.
Ervin Indra Nugraha, Yuliana Melita Pranoto
Journal of Intelligent System and Computation, Volume 3, pp 16-22; https://doi.org/10.52985/insyst.v3i1.180

Abstract:
Polisi tidur merupakan pembatas kecepatan laju dari kendaraan yang sengaja ditempatkan diatas jalan. Polisi tidur memiliki dua jenis karakteristi. Polisi tidur memiliki ukuran berbeda yang ditemui pada beberapa perumahan, ditempat ujian sim, dan yang sering dijumpai pada perumahan atau jalan dengan beragam warna yang berbeda. Deteksi polisi tidur pada jalan akan menggunakan dua metode Anilisis blob dan CNN. Proses deteksi polisi tidur akan dilakukan menggunakan anilisis blob, saat metode anilisis blob tidak mendeteksi adanya polisi tidur maka akan dilakukan proses CNN untuk melakukan deteksi. Dalam proses anilisis blob, alur penelitian deteksi akan dilakukan menggunakan anilisis blob, pada saat proses blob tidak mendeteksi adanya polisi tidur maka proses deteksi akan dilanjutkan menggunakan CNN. Sebelum dilakukan proses deteksi menggunakan blob, gambar atau video frame akan diproses menggunakan proses preprosesing, morfologi erosi dan dilasi. Penggunaan proses preprosesing dan morfologi dilakukan agar objek berupa polisi tidur dapat dipisahkan dari gambar background yaitu aspal. Uji coba pada penelitian akan dilakukan pada 10 buah video dengan durasi minimal 30 detik dan 100 gambar polisi tidur yang diproses pada dataset. Pada dataset akan dikelompokan untuk dilakukan klasifikasi yaitu berwarna dan tidak berwarna. Setiap warna polisi tidur yang terdeteksi akan dicatat dan berapa banyak pada warna tersebut polisi tidur dapat dideteksi. Kedua metode yang digabungkan mendapatkan hasil deteksi yang baik dengan hasil 76% terhadap polisi tidur pada perumahan. Pada uji coba rata-rata polisi tidur tanpa warna atau warna yang sama dengan aspal dan penggunaan paving pada jalan mempengaruhi tingkat akurasi dari deteksi polisi tidur.
Bambang Widodo, Hendrawan Armanto Armanto, Endang Setyati
Journal of Intelligent System and Computation, Volume 3, pp 23-29; https://doi.org/10.52985/insyst.v3i1.157

Abstract:
Penggunaan helm proyek pada pekerjaan dengan resiko kecelakaan tinggi seperti pekerjaan konstruksi seringkali diabaikan oleh pekerja, sehingga apabila terjadi kecelakaan kerja yang tidak diinginkan seperti kejatuhan benda keras dari atas atau terjadi benturan keras pada kepala akan berakibat fatal bagi pekerja tersebut. Penelitian ini bertujuan untuk mendeteksi pemakaian helm proyek oleh pekerja konstruksi pada citra. Metode yang digunakan pada penelitian ini adalah Convolutional Neural Network YOLO. Sistem terdiri dari tiga proses utama yaitu proses pre processing, proses training dan proses deteksi. Proses pre processing adalah melakukan resize dan anotasi labeling pada citra dataset. Selanjutnya adalah proses training pada dataset dengan menggunakan transfer learning YOLOv2. Pada proses deteksi digunakan 4 buah anchor box pada setiap grid pada citra, hasil dari mencari nilai ukuran bounding box yang memiliki IOU terbaik dengan melakukan proses clustering pada dataset training dan validasi yang terdapat bounding box menggunakan algoritma K-Mean clustering. Algoritma Intersection Over Union (IOU) dan Non Max Suppression (NMS) digunakan agar bounding box prediksi yang dibuat presisi dengan objek yang berhasil dideteksi dan untuk menghilangkan multideteksi pada objek yang sama. Proses deteksi pada sistem ini melakukan lokalisasi dan klasifikasi dengan sekali langkah proses sehingga hasil dari proses deteksi ini adalah orang menggunakan helm proyek dan orang tidak menggunakan helm proyek. Pengujian sistem deteksi dilakukan secara individu maupun kelompok maksimal 5 orang dengan F1-score yang diperoleh sebesar 0,79.
Esther Irawati Setiawan, Ika Lestari
Journal of Intelligent System and Computation, Volume 3, pp 41-48; https://doi.org/10.52985/insyst.v3i1.148

Abstract:
Berita palsu masih menjadi masalah yang harus mendapat perhatian khusus. Media sosial, termasuk Facebook menjadi salah satu sarana yang mudah dan murah untuk menyebarkan suatu informasi yang bahkan belum tentu kebenarannya. Informasi tentang kesehatan menjadi salah satu topik berita palsu yang banyak tersebar ke masyarakat. Cara yang berbeda untuk mendeteksi berita palsu yaitu dengan menggunakan deteksi sikap (stance detection). Tujuan utama dari penelitian ini adalah merancang model yang memiliki kemampuan terbaik untuk melakukan tugas stance classification pada konteks bahasa Indonesia. Model ini diharapkan dapat digunakan untuk berkontribusi dalam menanggulangi masalah penyebaran berita palsu, khususnya di Indonesia. Metode BiLSTM dan GRU diusulkan untuk digunakan dalam melakukan stance classification terhadap headline berita dengan kelas for (mendukung), against (menentang), dan observing (netral). Stance classification pada penelitian ini menggunakan data sebanyak 3.941 headline berita yang terdiri dari 563 klaim dengan 7 tanggapan. Dataset dikumpulkan dari artikel-artikel berita kesehatan berbahasa Indonesia yang diposting pada laman Facebook. Model pada penelitian ini mampu menghasilkan akurasi F1-score paling tinggi sebesar 64% dengan FastText embedding. Metode GRU dapat menjadi salah satu pilihan tepat untuk melakukan stance classification dengan komputasinya yang lebih sederhana. Kinerja FastText jauh lebih unggul dibandingkan dengan Word2Vec dalam melakukan pembentukan vektor kata karena mampu mengatasi masalah out-of-vocabulary (OOV).
Mikhael Setiawan, Gunawan Gunawan, F.X. Ferdinandus
Journal of Intelligent System and Computation, Volume 3, pp 07-15; https://doi.org/10.52985/insyst.v3i1.175

Abstract:
Disjoint community detection bertujuan untuk menemukan sebuah komunitas pada network dengan melakukan pemisahan. Pada penelitian ini, disjoint akan dilakukan pada network kegiatan kemahasiswaan di ISTTS. Metode disjoint community detection yang digunakan adalah fast greedy dan walktrap algorithm. Data kegiatan kemahasiswaan berisi mengenai mahasiswa bersama-sama dengan mahasiswa lainnya mengikuti kegiatan kemahasiswaan apa saja. Setelah disjoint berhasil dilakukan, maka akan dihitung nilai closeness centrality dari setiap mahasiswa, dimana pada akhirnya akan dihitung correlation coefficient dengan IPK mahasiswa tersebut untuk mencari hubungan antara centrality mahasiswa dengan IPK mereka. Hasil closeness centrality ini selanjutnya di rata-rata untuk semua hasil algoritma untuk melihat bagaimana korelasi closeness centrality dengan ipk mahasiswa tersebut. Uji coba dilakukan dengan membentuk gml dari kombinasi filter, yang menghasilkan sekitar 2527 gml dengan nilai akhir korelasi adalah 62 - 63% weak positif dengan diikuti 16-18% moderate positif, dan 14-16% tidak berkorelasi sama sekali. Akhirnya dapat disimpulkan bahwa closeness centrality dalam sebuah komunitasnya, hanya berpengaruh secara weak positif dengan ipk mahasiswa tersebut.
, Melania Laniwati
Journal of Intelligent System and Computation, Volume 3, pp 49-54; https://doi.org/10.52985/insyst.v3i1.186

Abstract:
Film dianggap sebagai bentuk seni serta merupakan sumber hiburan yang populer. Pembuatan penelitian ini diharapkan bisa membantu orang Indonesia untuk mendapatkan informasi tentang film serta membaca review dari film. Review film yang ada pada website ini didapatkan dari user-user lokal maupun dari Twitter. Sistem mengekstraksi dan mengkategorikan isi sentiment dari sebuah barisan teks tweet dengan menggunakan metodologi Basic Unified Process. Proses klasifikasi sentiment yang ada bertujuan untuk mengklasifikasi review sebagai positif/negatif. Seluruh tweet akan diproses melalui Feature Reduction dan Normalisasi. Proses Feature Reduction akan menghapus hashtag, username, link, dan tanda baca pada tweets. Pada proses Normalisasi, seluruh singkatan dan kata bukan baku pada tweets akan diganti. Penelitian ini menggunakan sistem Rule-Based dalam menentukan apakah tweet tersebut merupakan review film atau bukan. Penulis menggunakan algoritma Naïve Bayes untuk mengklasifikasi sentiment (positif/negatif) dari review. Penulis telah melakukan 8 buah pengujian, masing-masing 4 kali untuk pengujian sistem Rule-Based dan Naïve Bayes Classifier. Total data tweet yang diujicobakan adalah sebanyak 6.323, dan hasil akhir paling optimal yang didapatkan oleh sistem terhadap Rule-Based System menghasilkan akurasi sebesar 82,64% dan terhadap Naïve Bayes Classifier sebesar 74,09%. Dari hasil pengujian paling optimal ini, sistem mendapatkan nilai recall dan presisi masing-masing sebesar 71,44% dan 77,92% untuk Rule-Based System, serta 83,77% dan 77,65% untuk Naïve Bayes.
Reddy Alexandro Harianto
Journal of Intelligent System and Computation, Volume 3, pp 30-40; https://doi.org/10.52985/insyst.v3i1.187

Abstract:
Proses pengukuran Material bak Truk membutuhkan waktu yang lama jika dilakukan dengan manual. Pengukuran Material Pada Bak Truk Berbasis Citra adalah sebuah terobosan untuk mengukur volume material secara otomatis menggunakan stereo image dengan durasi yang cepat. ZED Stereo Camera digunakan untuk scanning bak truk dan NVIDIA Jetson TX 1 digunakan menghitung muatannya. Pada tahap scanning dilakukan berbagai proses pengolahan citra seperti grayscaling, blurring, thresholding otsu, morphology operation dengan tujuan mengambil nilai depth bak truk dan mencari jarak maksimum serta minimum pada depth bak truk. Proses scanning dilakukan 2 kali yaitu pada saat truck kosong dan truk yang terdapat muatan. Setelah kedua data scanning terpenuhi dilakukan tahap perhitungan material dengan mengolah depth value, sebelumnya depth value dilakukan normalisasi terlebih dahulu. Setelah nilai depth didapatkan dilakukan rumus perhitungan volume pada bak yang berisi, dan juga di lakukan perhitungan volume bak kosong. Selisih dari nilai bak kosong di bandingkan dengan nilai bak isi inilah yang disebut sebagai volume muatan bak truk. Uji coba dilakukan pada jam 07.00-17.30 dengan truk yang berbeda. Terdapat 147 data percobaan terdapat 31 data yang tidak dapat ditemukan nilai depth value nya di karenakan pencahayaan yang kurang baik pada proses scanning. Dari scanning yang berhasil diprediksi nilai volume nya dan dibandingkan dengan nilai volume dengan metode perhitungan manual RMSE perhitungannya pada angka 0.814.
Albert Rianka Kristian, Hendrawan Armanto
Journal of Intelligent System and Computation, Volume 2, pp 63-68; https://doi.org/10.52985/insyst.v2i2.162

Abstract:
Tactical video game merupakan salah satu genre game yang mengutamakan perencanaan dan pemikiran yang mahir sebagai daya tarik game tersebut. Game tactical sering disertai dengan artificial intelligence sebagai lawan bermain agar pemain bisa menikmati game tersebut secara keseluruhan tanpa perlu bantuan pemain lain. Selain artificial intelligence, ada beberapa fitur-fitur lain yang menunjang pengalaman bermain, seperti skenario permainan beserta batasan-batasannya, goal yang harus dicapai, terrain dari papan permainan, dan karakter yang unik yang disediakan oleh game. Artificial intelligence merupakan komponen utama dari game tactical sehingga harus dibuat sedemikian rupa untuk dapat meningkatkan pengalaman bermain dari pemain. Kombinasi dari algoritma Behavior Tree, Influence Map, dan Utility AI dapat membuat artificial intelligence yang memadai yang dapat digunakan dalam game tactical. Dengan adanya fitur tambahan seperti terrain dan karakter yang unik, programmer sudah bisa membuat game tactical yang cukup menarik dan menantang.
JerryL Jeovano
Journal of Intelligent System and Computation, Volume 2, pp 91-97; https://doi.org/10.52985/insyst.v2i2.184

Abstract:
Data merupakan bagian penting dari semua aplikasi. Namun seiring perkembangan aplikasi dan kecepatan stream data, volume data yang dihasilkan telah melebihi milyaran data. Semakin besar volume data, maka semakin sulit juga data tersebut dianalisa. Tujuan pembuatan software ini untuk memvisualisasikan data user dari file yang diupload kepada sistem. Memudahkan tim analis untuk memprediksi dan memajukan sebuah usaha. Visualisasi data berjalan fleksibel, sehingga user dapat menentukan sendiri data pada bagian axis-axisnya. Pembuatan website ini menggunakan framework Flask yang berbasis pada bahasa pemrograman Python, database cassandra merupakam database nosql yang mana digunakan untuk penyimpanan data website ini. Sedangkan visualisasi, website ini menggunakan library DevExpress dan Google Chart yang berbasis AngularJS. AngularJS sendiri merupakan perluasan dari bahasa pemrograman HTML. Metodologi yang akan digunakan pada pembuatan website ini adalah Scrum. Prose pembuatan website ini dilakukan dalam 4 sprint. Masing-masing sprint dalam penelitian ini berlangsung dalam jangka waktu 14 hari. Dari hasil penelitian ini dapat disimpulkan bahwa penggunaan metode scrum untuk membuat web untuk visualisasi data berjalan dengan efektif karena dalam proses pembuatan web ini lebih terstruktur sehingga time management menjadi lebih efisien. Library DevExpress lebih mudah digunakan daripada menggunakan library Google Chart. Dalam menampilkan chart, library DevExpress hanya dapat menampilkan sebuah chart dalam satu halaman.
Andre Nyoto Raharjo, Andreas Andreas
Journal of Intelligent System and Computation, Volume 2, pp 69-73; https://doi.org/10.52985/insyst.v2i2.147

Abstract:
Manusia dapat mengendarai mobil dengan cara belajar sendiri, belajar dari orang lain atau dengan menirukan cara mengemudi orang lain. Dalam mengemudikan mobil pengemudi akan melihat kondisi jalan dan kondisi mobil sebagai pertimbangan untuk menentukan kontrol kemudi yang akan dijalankan seperti nilai steering angle, throttle dan brake. Dengan pembelajaran atau menirukan kebiasaan manusia, mesin juga mampu untuk melakukan hal yang sama yang dapat dilakukan oleh manusia seperti mengemudikan mobil. Maka dari itu akan dibuat program yang dapat mengemudikan mobil dengan menentukan nilai steering angle, throttle dan brake menggunakan data gambar kamera depan mobil, nilai steering angle, throttle, brake dan speed terakhir mobil. Aplikasi akan dibuat menggunakan Keras untuk pembuatan model, training dan testing. Berbagai teknik augmentasi gambar digunakan untuk menghasilkan gambar baru dengan jumlah tidak terbatas dari data gambar asli yang dikumpulkan. Program menggunakan simulator mobil untuk melakukan pengumpulan data dan uji coba program. Simulator dipilih sebagai media karena mudah dalam hal pengumpulan data dan tidak ada risiko terjadi kecelakaan seperti pada dunia nyata. Dengan adanya program ini, mesin dapat mengemudikan mobil secara otonom. Dari hasil eksperimen disimpulkan bahwa performa terbaik model tercapai pada model yang menggunakan dataset Lake dan Mountain, menggunakan augmentasi data, menggunakan channel warna YUV, menggunakan gambar dan state dari mobil sebagai input, learning rate 0.0001, dan drop out 0.5.
Christian Aditya Santoso, Gunawan Gunawan
Journal of Intelligent System and Computation, Volume 2, pp 56-62; https://doi.org/10.52985/insyst.v2i2.163

Abstract:
Digital library merupakan solusi yang baik untuk dunia edukasi. Hal ini disebabkan karena buku yang sudah berevolusi menjadi digital. Awalnya dalam bentuk fisik sekarang sudah dalam bentuk digital dengan ekstensi PDF. Namun untuk membangun sebuah digital library merupakan system yang besar dan kompleks, sehingga diperlukan bagian yang banyak. Penelitian ini mengambil satu bagian dari pengembangan system digital library, yaitu pada bagian preprocessing atau persiapan sumber data digital library. Penyedian sumber data digital library sangat luas dan banyak. Fokus dari penelitian ini adalah penyedian data dimana data tersebut adalah jurnal, prosiding dan paper. Dokumen tersebut dipilih karena dinilai memiliki manfaat yang besar untuk edukasi karena peneliti mendokumentasikan hasil penelitian pada dokumen tersebut. Dalam 1 paper tentunya ada bagian yang menjadi kunci yang menggambarkan intisari dari penelitian tersebut. Pada penelitian ini diambil informasi Judul, Abstract, Keyword dan penulis. Informasi tersebut dipercaya mampu menggambarkan intisari dari suatu paper. Proses dilakukan dengan terbagi menjadi 3 bagian besar yaitu konversi file mentah dengan ekstensi PDF menjadi file JSON, Proses pengambilan fitur, Proses ekstraksi informasi. Ekstraksi informasi pada penelitian ini menggunakan kumpulan rule yang diimplementasikan pada software. Rule di dapat dari hasil pengamatan selama penelitian. Hasil dari penelitian dilakukan perhitungan dengan memberikan bobot dimana hal yang terberat memiliki pengaruh yang lebih besar. Ketelitian yang dicapai adalah 81.32% dimana dari hipotesa awal pada ketelitain 80%. Namun masih banyak pengembangan yang bisa dilakukan agar lebih baik lagi pada penelitian selanjutnya
Agung Pribadi, Anang Kukuh Adisusilo
Journal of Intelligent System and Computation, Volume 2, pp 74-85; https://doi.org/10.52985/insyst.v2i2.159

Abstract:
Kanker paru-paru adalah salah satu tipe kanker yang mematikan di seluruh dunia. Proses pendeteksian manual memakan banyak waktu dan energi untuk dituangkan. Kerja keras sekalipun tidaklah cukup, maka telat dalam pendeteksian telah menjadi faktor utama dalam tingkat kesembuhan. Menggunakan[ CT Scan adalah salah satu alat skrining yang potensial, tetapi program skrining otomatis dibutuhkan untuk menghemat waktu. Pendeteksian, menyegmentasi dan penggolongan nodule adalah tiga poin utama untuk membuat ini menjadi nyata. Oleh karena itu, dalam mengambil bagian untuk membuat program itu, tugas akhir ini akan melakukan fokus menyegmentasi nodule. Pada awal program, pertama dibutuhkan hasil CT Scan dan segmentasi nodulenya. Selain itu, juga dibutuhkan titik koordinat centroid dari nodule dari hasil scan tersebut. Setelah mengetahui titik centroid dari nodule, maka proses preprocessing akan menjadi mudah. Program akan mengambil daerah sekitar nodule dan nodule sebagai titik tengahnya, hasil dari proses ini adalah sebuah kubus yang memiliki ukuran yang sama untuk semua hasil preprocess yang sebelumnya sudah ditentukan. Setelah mendapatkan kubus daerah sekitar nodule, proses normalisasi akan dilakukan sehingga data siap untuk ditraning oleh neural network. 2 Model dibuat dengan arsitektur yang berbeda, seperti menggunakan U-Net biasa dan U-Net++. Hasil dari program akan menghasilkan skor Jaccard index dengan tingkat keakuratan tertinggi sebesar 79.8%. Didapatkan kesimpulan bahwa penggunaan U-Net biasa dan U-Net++ tidak memiliki perbedaan akurasi yang signifikan, meskipun memiliki komponen layer dan aktivasi yang sama.
Riko Gunawan, Yosi Kristian
Journal of Intelligent System and Computation, Volume 2, pp 86-90; https://doi.org/10.52985/insyst.v2i2.124

Abstract:
Menonton film merupakan salah satu hobi yang paling digemari oleh berbagai kalangan. Seiring dengan semakin bertambahnya film yang beredar di pasaran, semakin banyak pula konten tidak pantas pada film-film tersebutu. Oleh karena itu, dibutuhkan sebuah metode untuk mengklasifikasikan film agar konten yang ditonton sesuai dengan usia penonton. Konten film yang kurang cocok untuk pengguna di bawah umur yang akan diklasifikasikan pada penelitian ini antara lain: kekerasan, pronografi, kata-kata kasar, minuman keras, penggunaan obat-obatan terlarang, merokok, adegan mengerikan (horror) dan intens. Metode klasifikasi yang digunakan berupa modifikasi dari convolutional neural network dan LSTM. Gabungan kedua metode ini dapat mengakomodasi data training dalam jumlah yang kecil, serta dapat melakukan multi klasifikasi berdasarkan video, audio, dan subtitle film. Penggunaan multi klasifikasi ini dikarenakan sebuah film selalu memiliki lebih dari satu klasifikasi. Dalam proses training dan testing pada penelitian ini digunakan sebanyak 1000 data untuk klasifikasi video, 600 data klasifikasi audio, dan 400 data klasifikasi subtitle yang didapatkan dari internet. Dari hasil percobaan dihasilkan tingkat akurasi yang diukur dengan menggunakan F1-Score sebesar 0.922 untuk klasifikasi video, 0.741 untuk klasifikasi audio, dan 0.844 untuk klasifikasi subtitle dengan rata-rata akurasi sebesar 0.835. Pada penelitian berikutnya akan dicoba dengan menggunakan metode Deep Convolutional Neural Network yang lain serta dengan memperbanyak jumlah dan variasi dari data testing.
Amelia Alexandra Putri Warsito, Herry Pieter
Journal of Intelligent System and Computation, Volume 2, pp 47-55; https://doi.org/10.52985/insyst.v2i2.167

Abstract:
Perkembangan aplikasi mobile yang pesat juga mendorong banyaknya aplikasi manajemen hutang perseorangan yang mulai beredar di pasaran. Saat ini, aplikasi manajemen hutang perseorangan bisa dibilang sudah cukup banyak, tetapi banyak dari aplikasi tersebut yang tidak terhubung langsung dengan perbankan. Apabila aplikasi tersebut diterapkan di era sekarang ini akan menjadi agak merepotkan, mengingat 80% orang Indonesia menyimpan sebagian besar uangnya pada rekening bank. Selain itu, akan menjadi sangat merepotkan apabila aplikasi pencatatan hutang yang digunakan tidak bisa membantu pengguna untuk mengecek mutasi masuk atau hutang mana yang sudah terbayar dan mana yang belum
Michael Patria Christie, Andreas
Journal of Intelligent System and Computation, Volume 2, pp 40-46; https://doi.org/10.52985/insyst.v2i1.146

Abstract:
Dalam video game jaman sekarang, hampir semua permainan memakai kecerdasan buatan sebagai cara agar non-player karakter agar dapat berinteraksi dengan game. Karena itu pada penelitian ini bertujuan untuk mencoba menerapkan kecerdasan buatan behavior tree dan juga Fuzzy waypoint tactic. Project game “War of Zombies” ini merupakan permainan strategi dimana pemain yang berperan sebagai zombie mencoba melenyapkan manusia sebagai musuhnya. Pada permainan ini selain waypoint tactic dan behavior tree terdapat beberapa metode kecerdasan buatan yang diterapkan seperti A* pathfinding, djikstra dan juga fuzzy logic. Behavior tree merupakan metode panduan berisi langkah-langkah bagi karakter untuk menyelesaikan suatu tugas. Sedangkan fuzzy waypoint tactic merupakan cara bagi developer untuk memberitahu lokasi-lokasi strategis yang dapat membantu karakter dalam menyelesaikan tugas, seperti misalnya bersembunyi atau menembak. Pada game bertema strategi seperti ini, fuzzy logic sangat membantu untuk membuat suatu keputusan bagi karakter. Selain itu, fuzzy logic juga merupakan metode yang baik dalam waypoint tactic untuk menentukan lokasi strategis yang paling menguntungkan diantara pilihan-pilihan lokasi yang telah disediakan. Behavior tree juga merupakan metode yang baik dalam mengatur perilaku setiap karakter yang ada pada game strategi.
Eric Dinata, Herman Budianto, Hendrawan Armanto
Journal of Intelligent System and Computation, Volume 2, pp 20-27; https://doi.org/10.52985/insyst.v2i1.153

Abstract:
Sudoku merupakan salah satu permainan klasik yang digemari banyak orang. Sebagai salah satu permainan papan, Sudoku mempunyai banyak varian, salah satunya Hyper Sudoku. Hyper Sudoku mempunyai tingkat kesulitas yang lebih tinggi daripada Sudoku biasa. Tingkat kompleksitas yang tinggi membuat pemainan ini menjadi brain teaser yang baik dan sangat cocok diambil sebagai media untuk menguji algoritma metaheuristik. Algoritma yang populer pada dekade terakhir ini adalah algoritma metaheuristik berbasis populasi, yang mengadaptasi perilaku binatang dalam memecahkan permasalahan optimasi, salah satunya adalah Harris Hawks Optimization (HHO). Seperti kebanyakan metode swarm intelligence (SI) lainnya, algoritma ini mengandalkan proses diversification dan intensification. Selain itu, HHO mempunyai empat strategi khusus untuk mencari solusi dengan kondisi yang berbeda. HHO mampu mencakup solusi multi dimensi, sehingga sangat cocok diimplementasikan pada persoalan Hyper Sudoku. Untuk uji coba, peneliti menggunakan bantuan aplikasi Visual Studio 2017 dan MATLAB R2018a. Pada proses pengujian, digunakan dua setting parameter yang berbeda, tiga macam persoalan Hyper Sudoku, dan tiga puluh independent run untuk mencapai hasil yang diinginkan. Berdasarkan hasil pengujian, dapat disimpulkan bahwa tingkat keberhasilan untuk mencari solusi pada persoalan Hyper Sudoku dengan menggunakan HHO berkisar antara 86 hingga 88%, dilihat dari fitness value-nya.
Ramadhan Ramadhan, Esther Irawati Setiawan
Journal of Intelligent System and Computation, Volume 2, pp 34-39; https://doi.org/10.52985/insyst.v2i1.149

Abstract:
Salah satu teknik data mining yang populer digunakan adalah association data mining atau yang biasa disebut dengan istilah market basket analysis. Market basket didefinisikan sebagai suatu itemset yang dibeli secara bersamaan oleh pelanggan dalam suatu transaksi. Market basket analysis adalah suatu sarana untuk meningkatkan penjualan. Metode ini dimulai dengan mencari sejumlah frequent itemset dan dilanjutkan dengan pembentukan aturan-aturan asosiasi. Algoritma Apriori dan frequent pattern growth adalah dua algoritma yang sangat populer untuk menemukan sejumlah frequent itemset dari data-data transaksi yang tersimpan dalam basis data. Dalam penelitian ini algoritma frequent pattern growth (FP Growth) digunakan untuk menemukan sejumlah aturan asosiasi dari basis data transaksi penjualan di Swalayan KSU Sumber Makmur (Trenggalek). Dari hasil pengolahan data didapatkan pola pembelian paling kuat berupa jika membeli pasta gigi maka dimungkinkan juga akan membeli sabun dan jika membeli shampo juga akan membeli sabun dengan tingkat keyakinan (confidence) 63% dan 62%.
Ahmad Syaifuddin, Reddy Alexandro Harianto, Joan Santoso
Journal of Intelligent System and Computation, Volume 2, pp 12-19; https://doi.org/10.52985/insyst.v2i1.150

Abstract:
Aplikasi WhatsApp merupakan salah satu aplikasi chatting yang sangat populer terutama di Indonesia. WhatsApp mempunyai data unik karena memiliki pola pesan dan topik yang beragam dan sangat cepat berubah, sehingga untuk mengidentifikasi suatu topik dari kumpulan pesan tersebut sangat sulit dan menghabiskan banyak waktu jika dilakukan secara manual. Salah satu cara untuk mendapatkan informasi tersirat dari media sosial tersebut yaitu dengan melakukan pemodelan topik. Penelitian ini dilakukan untuk menganalisis penerapan metode LDA (Latent Dirichlet Allocation) dalam mengidentifikasi topik apa saja yang sedang dibahas pada grup WhatsApp di Universitas Islam Majapahit serta melakukan eksperimen pemodelan topik dengan menambahkan atribut waktu dalam penyusunan dokumen. Penelitian ini menghasilkan model topic dan nilai evaluasi f-measure dari model topik berdasarkan uji coba yang dilakukan. Metode LDA dipilih untuk melakukan pemodelan topik dengan memanfaatkan library LDA pada python serta menerapkan standar text-preprocessing dan menambahkan slang words removal untuk menangani kata tidak baku dan singkatan pada chat logs. Pengujian model topik dilakukan dengan uji human in the loop menggunakan word instrusion task kepada pakar Bahasa Indonesia. Hasil evaluasi LDA didapatkan hasil percobaan terbaik dengan mengubah dokumen menjadi 10 menit dan menggabungkan dengan reply chat pada percakapan grup WhatsApp merupakan salah satu cara dalam meningkatkan hasil pemodelan topik menggunakan algoritma Latent Dirichlet Allocation (LDA), didapatkan nilai precision sebesar 0.9294, nilai recall sebesar 0.7900 dan nilai f-measure sebesar 0.8541.
Suriani Alamgunawan, Yosi Kristian
Journal of Intelligent System and Computation, Volume 2, pp 06-11; https://doi.org/10.52985/insyst.v2i1.152

Abstract:
Convolutional Neural Network sebagai salah satu metode Deep Learning yang paling sering digunakan dalam klasifikasi, khususnya pada citra. Terkenal dengan kedalaman dan kemampuan dalam menentukan parameter sendiri, yang memungkinkan CNN mampu mengeksplor citra tanpa batas. Tujuan penelitian ini adalah untuk meneliti klasifikasi tekstur serat kayu pada citra mikroskopik veneer dengan CNN. Model CNN akan dibangun menggunakan MBConv dan arsitektur lapisan akan didesain menggunakan EfficientNet. Diharapkan dapat tercapai tingkat akurasi yang tinggi dengan penggunaan jumlah parameter yang sedikit. Dalam penelitian ini akan mendesain empat model arsitektur CNN, yaitu model RGB tanpa contrast stretching, RGB dengan contrast stretching, Grayscale tanpa contrast stretching dan Grayscale dengan contrast stretching. Proses ujicoba akan mencakup proses pelatihan, validasi dan uji pada masing-masing input citra pada setiap model arsitektur. Dengan menggunakan penghitungan softmax sebagai penentu kelas klasifikasi. SGD optimizer digunakan sebagai optimization dengan learning rate 1e-1. Hasil penelitian akan dievaluasi dengan menghitung akurasi dan error dengan menggunakan metode F1-score. Penggunaan channel RGB tanpa contrast stretching sebagai citra input menunjukkan hasil uji coba yang terbaik.
Stefanus Nico Soenardjo, Gunawan Gunawan
Journal of Intelligent System and Computation, Volume 2, pp 28-33; https://doi.org/10.52985/insyst.v2i1.154

Abstract:
Proses information extraction dapat dilakukan pada beberapa macam media, seperti artikel berita, tanya jawab dan sebagainya. Penelitian ini mencoba untuk melakukan information extraction pada media soal ujian yang dilengkapi dengan jawaban. Pendekatan pengolahan informasi yang dibahas dalam penelitian ini adalah information extraction berbasis rule. Informasi yang hendak digali adalah informasi data soal ujian beserta jawabannya. Inputan dalam penelitian ini pasangan file soal dan jawaban milik Cambridge. Ada beberapa mata pelajaran yang digunakan, yaitu Biologi, Matematika dan Ekonomi. Jenis soal yang digunakan juga ada beberapa macam, yaitu pilihan ganda dan esai. Hasil penelitian ini diharapkan bisa menjadi media pembelajaran. Penelitian dilakukan dengan menggunakan sebanyak 100 pasang data soal dan ujian. Sistem akan menerima 2 inputan file dengan format PDF. Kedua file ini merupakan pasangan soal dan jawaban. Proses yang diakukan adalah file akan dirubah menjadi 2, yaitu file HTML dan file PNG. File HTML mengandung semua teks soal dan file PNG mengandung semua gambar dari soal. Sistem akan mengambil teks dan gambar dari masing-masing soal dan jawaban berdasrkan rule yang sudah ditentukan. Penentuan rule dilakukan secara manual dengan mempelajari pola-pola data yang tedapat dalam tag HTML. Setelah proses ekstraksi, soal dan jawaban ini dipasangkan sesuai dengan nomor urutnya masing-masing. Pasangan soal dan jawaban ini kemudian akan disimpan ke dalam database. Dari hasil penelitian, tingkat akurasi yang didapatkan adalah sekitar 46%. Kendala utama yang dihadapi adalah format soal dan jawaban yang tidak strandar sehingga menimbulkan kesulitan dalam proses ekstraksi informasi.
Rico Fiyan Hady Rico, Hendrawan Armanto
Journal of Intelligent System and Computation, Volume 2, pp 01-05; https://doi.org/10.52985/insyst.v2i1.155

Abstract:
Dituliskan Augmented Reality (AR) merupakan peluang baru untuk mempermudah kegiatan manusia dalam mengilustrasikan sesuatu. Karena pada dasarnya konsep AR adalah menampilkan objek grafis menjadi tampak nyata seolah ada dihadapan kita. Dalam segi pendidikan hal ini akan sangat berpengaruh mengingat konsep dari AR itu sendiri. Aplikasi ini akan mempermudah interaksi dua arah mengenai materi yang sedang disampaikan khususnya dalam jenjang sekolah dasar. Peserta didik seolah akan melihat objek yang sedang diajarkan berada didepan mereka. Hal ini membuat peserta didik dapat mengerti secara komplek dan terstruktur mengenai sistem pencernaan dan sistem pernapasan pada tubuh manusia dengan hanya menggunakan smartphone dan sebuah gambar sebagai marker. Hasil penelitian disalah satu sekolah mengungkap hasil belajar siswa dengan menggunakan metode pembelajaran AR akan meningkatkan pemahaman peserta didik dalam mengenal organ sesuai dengan kuisoner yang sudah diberikan. Aplikasi ini berhasil membantu belajar peserta didik untuk memperlajari sistem pernapasan dan sistem perncernaan pada tubuh manusia dengan menggunakan teknologi Augmented Reality (AR).
Evan Kusuma Susanto, Yosi Kristian
Journal of Intelligent System and Computation, Volume 1, pp 74-84; https://doi.org/10.52985/insyst.v1i2.82

Abstract:
Asynchronous Advantage Actor-Critic (A3C) adalah sebuah algoritma deep reinforcement learning yang dikembangkan oleh Google DeepMind. Algoritma ini dapat digunakan untuk menciptakan sebuah arsitektur artificial intelligence yang dapat menguasai berbagai jenis game yang berbeda melalui trial and error dengan mempelajari tempilan layar game dan skor yang diperoleh dari hasil tindakannya tanpa campur tangan manusia. Sebuah network A3C terdiri dari Convolutional Neural Network (CNN) di bagian depan, Long Short-Term Memory Network (LSTM) di tengah, dan sebuah Actor-Critic network di bagian belakang. CNN berguna sebagai perangkum dari citra output layar dengan mengekstrak fitur-fitur yang penting yang terdapat pada layar. LSTM berguna sebagai pengingat keadaan game sebelumnya. Actor-Critic Network berguna untuk menentukan tindakan terbaik untuk dilakukan ketika dihadapkan dengan suatu kondisi tertentu. Dari hasil percobaan yang dilakukan, metode ini cukup efektif dan dapat mengalahkan pemain pemula dalam memainkan 5 game yang digunakan sebagai bahan uji coba.
Rully Widiastutik, Lukman Zaman P. C. S. W, Joan Santoso
Journal of Intelligent System and Computation, Volume 1, pp 58-64; https://doi.org/10.52985/insyst.v1i2.84

Abstract:
Penelitian yang dilakukan yaitu menghasilkan peringkasan teks ekstratif secara otomatis yang dapat membantu menghasilkan dokumen yang lebih pendek dari dokumen aslinya dengan cara mengambil kalimat penting dari dokumen sehingga pembaca dapat memahami isi dokumen dengan cepat tanpa membaca secara keseluruhan. Dataset yang digunakan sebanyak 30 dokumen tunggal teks berita berbahasa Indonesia yang diperoleh dari www.kompas.com pada kategori tekno. Dalam penelitian ini, digunakan sepuluh fitur yaitu posisi kalimat, panjang kalimat, data numerik, bobot kalimat, kesamaan antara kalimat dan centroid, bi-gram, tri-gram, kata benda yang tepat, kemiripan antar kalimat, huruf besar. Nilai fitur setiap kalimat dihitung. Nilai fitur yang dihasilkan ditingkatkan dengan menggunakan metode Restricted Boltzmann Machine (RBM) agar ringkasan yang dihasilkan lebih akurat. Untuk proses pengujian dalam penelitian ini menggunakan ROUGE-1. Hasil yang diperoleh dalam penelitian yaitu dengan menggunakan learning rate 0.06 menghasilkan recall, precision dan f-measure tertinggi yakni 0.744, 0.611 dan 0.669. Selain itu, semakin besar nilai compression rate yang digunakan maka hasil recall, precision dan f-measure yang dihasilkan akan semakin tinggi. Hasil peringkasan teks dengan menggunakan RBM memiliki nilai recall lebih tinggi 2.1%, precision lebih tinggi 1.6% dan f-measure lebih tinggi 1.8% daripada hasil peringkasan teks tanpa RBM. Hal ini menunjukkan bahwa peringkasan teks dengan menggunakan RBM hasilnya lebih baik daripada peringkasan teks tanpa RBM.
Ernest Lim, Esther Irawati Setiawan, Joan Santoso
Journal of Intelligent System and Computation, Volume 1, pp 65-73; https://doi.org/10.52985/insyst.v1i2.86

Abstract:
Misinformasi merupakan fenomena yang semakin sering terjadi di media sosial, tidak terkecuali Facebook, salah satu media sosial terbesar di Indonesia. Beberapa penelitian telah dilakukan mengenai teknik identifikasi dan klasifikasi stance di media sosial Indonesia. Akan tetapi, penggunaan Word2Vec sebagai word embedding dalam penelitian tersebut memiliki keterbatasan pada pengenalan kata baru. Hal ini menjadi dasar penggunaan fastText embedding dalam penelitian ini. Dengan menggunakan pendekatan deep learning, penelitian berfokus pada performa model dalam klasifikasi stance suatu judul post kesehatan di Facebook terhadap judul post lainnya. Stance berupa for (setuju), observing (netral), dan against (berlawanan). Dataset terdiri dari 3500 judul post yang terdiri dari 500 kalimat klaim dengan enam kalimat stance terhadap setiap klaim. Model dengan fastText pada penelitian ini mampu menghasilkan F1 macro score sebesar 64%.
M. Najamudin Ridha, Endang Setyati, Yosi Kristian
Journal of Intelligent System and Computation, Volume 1, pp 85-91; https://doi.org/10.52985/insyst.v1i2.87

Abstract:
Abstrak—Perkembangan Fashion Muslim di Indonesia terus meningkat, disisi lain terobosan baru pada Deep Learning dengan memadukan arsitektur seperti dropout regularizations dan Rectified Linear Unit (ReLU) sebagai fungsi aktivasi dan data augmentation, mampu mencapai terobosan pada large scale image classification. Penelitian ini menggunakan metode deteksi objek wajah dengan Haar Cascades Classification untuk mendapatkan sample dataset wajah dan preprocessing data testing untuk dilanjutkan pada metode machine learning untuk klasifikasi citra dengan Convolutional Neural Network. Dataset yang digunakan adalah kumpulan katalog busana online, dataset yang sudah di preprocessing dibagi menjadi dua kategori, yaitu Hijab untuk semua citra wanita berhijab, dan Non Hijab untuk citra yang bukan wanita berhijab. selanjutnya klasifikasi citra menggunakan data ujicoba majalah digital terbitan Hijabella, Joy Indonesia dan Scarf Indonesia. Semakin besar resolusi citra input untuk preprocessing pada majalah digital, maka akan semakin banyak objek citra yang terdeteksi, dengan meningkatkan jumlah dataset untuk training dan validasi, mampu menambah hasil akurasi yang didapatkan, terjadi peningkatan akurasi pada dataset 2.500 wajah perkategori ke 5.000 wajah perkategori dengan resolusi 720p meningkat dari rata-rata 81.30% menjadi 82.31%, peningkatan rata-rata 1.01% dan tertinggi 2.14%, sedangkan resolusi 1080p meningkat dari rata-rata 83.03% menjadi 83.68%, peningkatan rata-rata 0.65% dan tertinggi 1.73%, akurasi tertinggi adalah sebesar 84.72% menggunakan model dataset 5.000 secara acak perkategori.
, Reynold Kevin, Pickerling Pickerling
Journal of Intelligent System and Computation, Volume 1, pp 99-109; https://doi.org/10.52985/insyst.v1i2.91

Abstract:
Liburan merupakan saat yang paling tepat untuk melakukan perjalanan wisata bersama keluarga maupun kerabat ke suatu daerah untuk melihat berbagai objek wisata yang ada. Sebelum melakukan liburan, tentu saja setiap orang akan menyiapkan rencana perjalanan yang paling efektif dan efisien. Hal ini tentu saja merepotkan bagi para wisatawan karena tidaklah mudah untuk menyusun jadwal perjalanan wisata yang baik dan efisien. Meskipun sudah terdapat berbagai paket tur yang ditawarkan bagi para wistawan, banyak dari paket tur yang ditawarkan tidak sesuai dengan keinginan dari masing-masing orang karena faktor selera yang berbeda-beda. Oleh karena itu, dibuatlah sebuah penelitian yang digunakan untuk melakukan perencanaan perjalanan wisata multi kota dan negara berbasiskan aplikasi mobile. Untuk menyelesaikan, penelitian ini akan menggunakan Algoritma Cuttlefish dalam pembuatan jadwal wisata secara otomatis berdasarkan data input yang telah diisikan oleh pengguna sebelumnya. Pada penelitian ini, pengguna dapat melakukan pembuatan perencanaan perjalanan wisata baik secara manual ataupun otomatis. Selain fitur untuk pembuatan perencanaan perjalanan wisata, juga terdapat fitur untuk melakukan pencarian tiket penerbangan dan juga akomodasi tempat tinggal dengan bantuan TravelPayouts API. Pada pembuatan jadwal wisata pun juga sudah dilengkapi dengan pencarian tiket penerbangan dan akomodasi tempat tinggal sesuai dengan input yang diberikan oleh pengguna sebelumnya. Pengguna juga dapat melihat jadwal wisata yang telah terbentuk dalam bentuk Table View, Map View dan PDF. Dengan dibuatnya penelitian ini diharapkan para pengguna dapat membuat sebuah jadwal wisata berdasarkan selera masing-masing. Jadwal wisata yang dibentuk secara otomatis dengan menggunakan Algoritma Cuttlefish tersebut juga dibuat sedemikian rupa hingga tercipta sebuah jadwal wisata yang efisien. Selain itu, pada tahap akhir dari tahap uji coba disebarkan kuesioner kepada responden. Kuesioner bertujuan untuk mengetahui komentar pengguna mengenai hasil akhir dari penelitian yang telah dibuat demi pengembangan untuk kedepannya. Berdasarkan hasil kuesioner, sebanyak 88% responden menyatakan jadwal wisata yang terbentuk sudah cukup baik.
Luthfi Alwi, Arya Tandy Hermawan, Yosi Kristian
Journal of Intelligent System and Computation, Volume 1, pp 92-98; https://doi.org/10.52985/insyst.v1i2.93

Abstract:
Abstrak - Proses identifikasi atau pengenalan biji-bijian merupakan aspek penting dalam dunia industri pengolahan pangan. Sebuah industri pangan berskala besar, proses pencampuran beberapa macam biji-bijian dalam pengolahan sebuah produk pangan sangat memperhatikan ketepatan dalam memilih bahan agar tidak terjadi kesalahan dalam proses produksi karena berpengaruh pada hasil akhir dari sebuah produksi. Agar tidak terjadi kesalahan yang fatal, diperlukan sebuah proses identifikasi dari bahan yang digunakan. Dengan sebuah sensor (intelligent camera) yang digunakan dari hasil sebuah proses identifikasi maka sebuah proses produksi produk pangan dapat berjalan dengan baik dan tidak terjadi kesalahan dalam pencampuran bahan. Proses pengidentifikasian terhadap beberapa varian biji-bijian dapat dilakukan dengan cara mengekstraksi fitur dari citra (image) dengan menganalisa melalui parameter warna, bentuk dan tekstur serta melakukan proses pengklasifikasian untuk mengukur tingkat keakuratan. Penelitian ini melakukan identifikasi terhadap varian biji-bijian (padi, jagung, kacang tanah dan kedelai) dengan melakukan ekstraksi fitur warna menggunakan RGB dan HSV, ekstraksi fitur bentuk menggunakan Morphological Threshold dan ekstraksi fitur tekstur menggunakan Grey Level Co-occurrence Matrix (GLCM) dan Local Binary Pattern (LBP). Untuk proses pengklasifikasian, peneliti menggunakan metode Random Forest Classifier (RF) untuk mendapatkan tingkat akurasi yang tinggi dengan batasan-batasan yang mempengaruhi keakuratan dalam proses pengklasifikasian untuk dikembangkan dalam proses selanjutnya. Peneliti menggunakan tools MATLAB R2015b untuk proses identifikasi mulai dari proses ekstraksi fitur sampai proses klasifikasnya. Berdasarkan hasil pengujian yang dilakukan didapatkan tingkat akurasi sebesar 99.8 %. Dapat disimpulkan bahwa pengambilan dataset berupa gambar atau image biji-bijian yang diteliti dapat dijadikan patokan untuk pengidentifikasian dan dapat dikembangkan dalam proses selanjutnya.
Muhammad Arief Rahman, Herman Budianto, Esther Irawati Setiawan
Journal of Intelligent System and Computation, Volume 1, pp 50-57; https://doi.org/10.52985/insyst.v1i2.83

Abstract:
Internet sebagai sarana informasi dan komunikasi sudah sangat dikenal di kalangan masyarakat dalam menawarkan kemudahan dan fleksibilitas yang cukup memadai ketika menjadi media. Oleh karena itu opini publik terhadap Operator Telekomunikasi merupakan hal yang sangat penting untuk dijadikan patokan. Namun, untuk mengevaluasi umpan balik online itu, bukan masalah sederhana. Kadang-kadang ketika menganalisis ulasan online yang berkembang pesat ini, menjadi sulit untuk mengkategorikan apakah opini pelanggan puas atau tidak puas terhadap produk dan layanan. Selain itu, sebagai bagian dari peningkatan kualitas mereka, organisasi seperti jasa ini perlu mengklasifikasikan aspek produk dan layanan yang paling disukai pelanggan. Deep Learning adalah area baru dalam penelitian Machine Learning, yang telah diperkenalkan dengan tujuan menggerakkan Machine Learning lebih dekat dengan salah satu tujuan aslinya yaitu Artificial Intelligence. Deep Learning adalah tentang belajar beberapa tingkat representasi dan abstraksi yang membantu untuk memahami data seperti gambar, suara, dan teks. Convolutional Neural Network adalah salah satu contoh metode Deep Learning. Metode Convolutional Neural Network diharapkan dapat digunakan dalam pengimplementasian opini publik untuk keperluan data training yang dikumpulkan dari beragam data yang dianotasikan kelas sentimennya secara otomatis. Hasil dari penelitian menunjukkan dari 4 aspek dan 3 sentimen maka didapatkan nilai rata-rata precision, recall, dan f1-score adalah precision 97.6%, recall 84%, f1-score 90.3%. Bisa disimpulkan score representation ini dapat digunakan untuk klasifikasi sentimen.
Jeremy Andre Septian, , Aryo Nugroho
Journal of Intelligent System and Computation, Volume 1, pp 43-49; https://doi.org/10.52985/insyst.v1i1.36

Abstract:
Persepakbolaan Indonesia belakangan ini memiliki banyak polemik mulai dari kasus pengaturan skor, pergantian pelatih timnas senior hingga pergantian ketua umum Persatuan Sepak bola Seluruh Indonesia (PSSI). Polemik ini menimbulkan banyaknya opini maupun pendapat dari pengguna twitter terhadap persepakbolaan di Indonesia sehingga diperlukan sebuah sistem untuk memudahkan dalam mengetahui sentimen pada setiap kalimat. Tujuan dari penelitian ini adalah untuk menganalisis sentimen pada setiap kalimat dari pengguna twitter terhadap persepakbolaan Indonesia apakah memiliki sentimen negatif atau positif. Data yang digunakan dalam penelitian ini didapatkan dari hasil crawling dari media sosial twitter terkait persepakbolaan di Indonesia yang diambil dari akun twitter resmi PSSI. Setelah data dikumpulkan kemudian akan dilakukan beberapa tahapan yaitu preprocessing yang terdiri dari cleansing, tokenizing, stopword removal, dan stemming. Pembobotan kata menggunakan Term Frequency-Invers Document Frequency (TF-IDF). Pada tahap validasi data dilakukan pengujian silang sebanyak 10 kali menggunakan k-fold cross validation, kemudian diklasifikasikan dengan metode K-Nearest Neighbor dapat menghasilkan akurasi yang cukup baik. Dari 2000 data tweet berbahasa indonesia didapatkan hasil akurasi optimal pada nilai k=23 sebanyak 79.9%
Nanang Wahyudi, Reddy Alexandro Harianto, Endang Setyati
Journal of Intelligent System and Computation, Volume 1, pp 9-18; https://doi.org/10.52985/insyst.v1i1.28

Abstract:
Augmented Reality (AR) memungkinkan pengguna dapat melihat objek virtual pada lingkungan nyata. Berbeda dengan Virtual Reality (VR) yang membawa pengguna masuk pada lingkungan virtual sepenuhnya tanpa melihat dunia nyata. Teknologi AR menggunakan marker sebagai target untuk memunculkan objek virtual. Penelitian ini menggunakan Drawing 2D sebagai Marker Based Tracking dalam mendeteksi target untuk memunculkan objek 3D virtual. Gambar 2D atau Drawing 2D merupakan alat untuk menyampaikan maksud dan informasi dari drafter kepada teknisi. Lulusan siswa Sekolah Menengah Kejuruan (SMK) harus mampu memahami Drawing 2D dan memvisualisasikan kedalam bentuk 3D. Kemampuan spasial dalam memvisualisasi ini yang harus dimiliki karena menyangkut masa depan setiap siswa. Pembelajaran materi proyeksi Drawing 2D memerlukan teknis khusus agar mampu di pahami oleh siswa. Aplikasi AR ini menggunakan metode Features from Accelerated Segment Test Corner Detection (FCD) dalam proses tracking. Uji coba penelitian menggunakan 50 marker. Kriteria uji coba deteksi marker dengan posisi tegak lurus, miring 30°, 45°, 60° dan 75° terhadap kamera serta dengan jarak deteksi 20 cm, 30 cm,40 cm,50 cm,dan 60 cm. Dari hasil uji coba untuk deteksi 50 marker disimpulkan bahwa marker dapat terdeteksi pada jarak 50 cm dengan posisi marker tegak lurus, kemiringan 30° maksimum pada jarak 40 cm, dan kemiringan 45° maksimum pada jarak 30 cm. Proses deteksi marker dipengaruhi oleh tingginya spesifikasi perangkat yang digunakan dalam ujicoba, pencahayaan serta besarnya marker yang digunakan.
Elkana Lewi Santoso, Endang Setyati, Yosi Kristian
Journal of Intelligent System and Computation, Volume 1, pp 27-33; https://doi.org/10.52985/insyst.v1i1.32

Abstract:
Penelitian yang dilakukan dalam Tesis ini adalah mengklasifikasikan 1907 daun berasal dari 32 jenis tanaman yang berbeda. Foto tersebut diambil dari website flavia. Proses klasifikasi daun-daun dilakukan dengan menggunakan Neural Network dengan metode Back Propagation Neural Network (BPNN). Tahap awal adalah mengubah ukuran gambar yang didapat dari flavia 1600x1200 piksel menjadi berukuran 300x225 piksel, terdiri dari tahap membuat gambar dengan Sobel untuk mendeteksi tepi, membuat gambar dengan Sobel dan menambah kecerahan gambar, sehingga tepi dan serat daun dapat lebih jelas. Citra daun di potong-potong dengan angular partition (sudut pembagi) 5°, 11.25°, 22.5°, 30°, 45° dan 90°. Pembuatan data set dengan delapan ekstrasi fitur daun yang terdiri dari menghitung : jumlah piksel-piksel pada bagian daun, jumlah piksel pada keliling daun, jumlah sudut pada daun, jumlah piksel pada keliling dan serat daun serta menghitung jarak tiap-tiap piksel tersebut dengan center of gravity (titik berat). Pada penelitian ini dilakukan 100 macam variasi nilai layer tersembunyi untuk tiap-tiap sudut pembagi tersebut. Hasil dari penelitian ini adalah : semakin kecil sudut pembagi(5°) dan semakin besar sudut pembagi (90°) tidak menghasilkan akurasi yang semakin bagus. Hasil akurasi tertinggi yang diraih sebesar 96,7488%. Hasil tersebut didapat dengan membagi daun menjadi sudut 11,25° tiap bagian (16 bagian), Susunan BPNN yang digunakan terdiri dari 1 input, 1 output, 3 hiden layer , tiap layer tersembunyi berisi 128, 120, 112 neurons, dan 32 neurons untuk output layer.
Sholeh Rachmatullah, Esther Irawati Setiawan, Reddy Alexandro Harianto
Journal of Intelligent System and Computation, Volume 1, pp 19-26; https://doi.org/10.52985/insyst.v1i1.37

Abstract:
RSUD SMART memiliki layanan SMS Center yang digunakan untuk berinteraksi dengan masyarakat dalam menerima pertanyaan, masukan, saran dan kritik maupun pengaduan. Informasi yang diterima dalam bentuk sms hanya disimpan dan tidak dikelompokkan berdasarkan unit atau layanan yang dituju sehingga pihak manajemen rumah sakit tidak bisa mengukur tingkat pelayanan di tiap unit. Penelitian ini melakukan klasifikasi terhadap data SMS dan saran responden dari masyarakat yang ditujukan kepada Direktur Rumah Sakit. Data SMS yang diklasifikasi berasal dari database aplikasi SMS Center RSUD SMART Pamekasan. Data SMS dan saran responden diklasifikasikan dalam 10 kelas yaitu Rawat Inap, Rawat jalan, Laboratorium, Farmasi, BPJS, Humas, Loket Pembayaran, Sarana dan Prasarana, Profesi dan tidak Terklasifikasi, serta melakukan scoring sms. Sebelum melakukan proses klasifikasi terlebih dahulu dilakukan pre-processing seperti penyamaan karakter, penghapusan tanda baca, mengembalikan singkatan, terjemah bahasa daerah (Bahasa Madura), penghapusan angka, penghapusan kata yang tidak penting dalam SMS, dan stemming untuk mengubah kata menjadi kata dasar. Penelitian ini menggunakan algoritma Naive Bayes dengan Two Stage (TS) Smoothing. Dalam beberapa uji coba yang telah dilakukan terhadap 2292 data dengan presentase data traning sebesar 20%, 30%, 40% dan 50% mendapatkan rata-rata akurasi sebesar 82,97% dengan nilai λ=0.2, μ=2000 dan threshold=3. Bahkan dalam salah satu uji coba klasifikasi dengan threshold statis mencapai akurasi 86,73% sedangkan akurasi terendah dengan threshold dinamis mencapai 74,28%. Pengaturan threshold statis terbukti meningkatkan akurasi klasifikasi sebesar 6,14%
Riandika Lumaris, , Willy Adrianus
Journal of Intelligent System and Computation, Volume 1, pp 34-38; https://doi.org/10.52985/insyst.v1i1.27

Abstract:
Dengan berkembangnya permainan dan artificial intelligence saat ini, maka dibuat sebuah permainan Battle of Artificial Intelligence. Game ini merupakan game berbasis Android dan merupakan permainan pertarungan antar robot, tetapi robot yang dijalankan berdasarkan pada sistem artificial intelligence yang dibuat oleh pemain. Dalam konsep ini pemain dapat membuat sebuah sistem Artificial Intelligence yang digunakan pada sebuah robot, dan robot tersebut akan digunakan untuk bertarung dengan robot musuh. Permainan ini merupakan permainan strategi dimana pemain diajak untuk memikirkan cara memenangkan pertempuran, yaitu dengan memilih prioritas dan membuat sistem AI yang berbeda. Pemain dapat mengembangkan, mengubah sebuah sistem Artificial Intelligence sesuai dengan yang pemain inginkan. Tidak hanya itu, pengguna juga dapat mengembangkan sistem AI yang dibuat dengan cara melakukan pertempuran dengan pemain lain secara online. Pemain dapat mengetahui sejauh mana sistem Artificial Intelligence yang dibuat mampu bertahan. Dari 22 pengguna yang sudah melakukan uji coba permainan dan mengisi kuisioner diperoleh bahwa konsep permainan ini menarik. Berdasarkan pemahaman tutorial, pengguna dapat menambah pengetahuan pengguna mengenai bagaimana artificial intelligence bekerja. Hampir 60% pengguna menyukai interface yang dibuat di dalam game. Pengguna juga dapat menambah pengetahuan mengenai pembuatan sistem artificial intelligence pada permainan ini berdasarkan hasil pemahaman sistem artifcial intelligence. Dengan adanya multiplayer, pengguna termotivasi untuk mengembangkan sistem artificial intelligence dengan bertanding dengan pemain lain secara online. Rating rata-rata yang diperoleh dari 22 pengguna yang telah melakukan uji coba adalah 3.45.
Pickerling Pickerling, , Stefanus Kurniawan Bastari
Journal of Intelligent System and Computation, Volume 1, pp 1-8; https://doi.org/10.52985/insyst.v1i1.24

Abstract:
Multilevel image thresholding adalah teknik penting dalam pemrosesan gambar yang digunakan sebagai dasar image segmentation dan teknik pemrosesan tingkat tinggi lainnya. Akan tetapi, waktu yang dibutuhkan untuk pencarian bertambah secara eksponensial setara dengan banyaknya threshold yang diinginkan. Algoritma metaheuristic dikenal sebagai metode optimal untuk memecahkan masalah perhitungan yang rumit. Seiring dengan berkembangnya algoritma metaheuristic untuk memecahkan masalah perhitungan, penelitian ini menggunakan tiga algoritma metaheuristic, yaitu Firefly Algorithm (FA), Symbiotic Organisms Search (SOS), dan Improved Bat Algorithm (IBA). Penelitian ini menganalisis solusi optimal yang didapatkan dari percobaan masing-masing algoritma. Hasil uji coba masing-masing algoritma saling dibandingkan untuk menentukan kelemahan dan kelebihan setiap algoritma berdasarkan performanya. Hasil uji coba menyatakan tiga algoritma tersebut memiliki performa berbeda dalam optimisasi multilevel image thresholding.
Nur Nafi'Iyah
Journal of Intelligent System and Computation, Volume 1, pp 39-42; https://doi.org/10.52985/insyst.v1i1.23

Abstract:
Jovita MS Glow Lamongan merupakan agen yang menjual produk kecantikan dari brand MS Glow, produk yang dijual di antaranya perawatan wajah, tubuh, kosmetik dengan perkembangan penjualan dari bulan ke bulan semakin meningkat maka dibutuhkan perhitungan perkiraan jumlah barang yang akan dibeli untuk meramalkan persediaan barang bulan berikutnya. Persediaan barang yang tidak tepat dapat menimbulkan kerugian maka perlu adanya sistem peramalan. Oleh karena itu penelitian menggunakan metode Weight Moving Average dan Double Exponential Smoothing untuk menentukan nilai error yang lebih kecil. Data yang digunakan pada penelitian ini mulai bulan Januari 2015 sampai bulan Desember 2016. Metode Weight Moving Average yaitu metode yang memberikan bobot yang berbeda untuk setiap historis sedangkan Metode Double Exponential Smoothing merupakan metode yang memiliki nilai pemulusan dua kali pada waktu sebelum data sebenarnya. Hasil peramalan kedua metode ini menghasilkan nilai error Weight Moving Average yaitu 698.7180 dan Double Exponential Smoothing yaitu 1.429.1015, sehingga Weight Moving Average adalah metode yang tepat digunakan untuk meramalkan persediaan barang karena memiliki nilai error yang lebih kecil.
Page of 1
Articles per Page
by
Show export options
  Select all
Back to Top Top