Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 28 dokumen yang sesuai dengan query
cover
Martin Novela
"Salah satu faktor keberhasilan suatu model pembelajaran dalam machine learning atau deep learning adalah dataset yang digunakan. Pemilihan dataset yang digunakan untuk pelatihan suatu model sangat penting dalam pemrosesan yang dilakukan. Beberapa model deep learning seperti sistem pemrosesan text-to-speech pada model Tacotron2 sangat bergantung dengan dataset yang dipilih. Hal tersebut dikarenakan dalam pelatihan yang dilakukan untuk pembentukan suatu model pada bahasa tertentu harus menggunakan bahasa tersebut agar kualitas dari suara sintesis yang dihasilkan dapat mendekati pelafalan yang seharusnya untuk bahasa yang ditentukan. Pada penelitian ini dilakukan pelatihan yang bertujuan untuk pembentukan model Tacotron2 pada Bahasa Indonesia, sehingga untuk mendapatkan hasil yang lebih baik, maka digunakan dataset berbahasa Indonesia dari rekaman podcast dan talk show. Pada penelitian ini dilakukan dua skenario untuk mendapatkan hasil yang paling optimal. Skenario pertama adalah melakukan pelatihan pada model Tacotron2 menggunakan dataset berbahasa Indonesia yang terdiri dari banyak pembicara. Skenario kedua adalah melakukan pelatihan pada model Tacotron2 menggunakan dataset berbahasa Indonesia yang terdiri dari satu pembicara. Dalam pemrosesan pelatihan untuk pembentukan model Tacotron2 pada Bahasa Indonesia dilakukan dengan menggunakan pre-trained dan hyperparameter berdasarkan penelitian sebelumnya (Shen, et al., 2018). Hasil dari setiap skenario dievaluasi menggunakan Mean Opinion Score (MOS). Kuesioner disebarkan kepada 25 responden untuk menilai kualitas dari suara yang terbentuk berdasarkan kriteria penilaian pada MOS. Suara yang dibentuk oleh model Tacotron2 pada skenario pertama menghasilkan nilai MOS sebesar 4.01. Sedangkan suara yang dibentuk oleh model Tacotron2 pada skenario kedua menghasilkan nilai MOS sebesar 3.78. Hal tersebut menunjukkan bahwa penggunaan dataset berbahasa Indonesia dari rekaman podcast dan talk show dalam pembentukan model Tacotron2 untuk Bahasa Indonesia menghasilkan kualitas yang cukup baik.

One of the success factors of a learning model in machine learning or deep learning is the dataset used. The selection of the dataset used for training a model is very important. Some deep learning models such as the text-to-speech processing system in Tacotron2 are highly dependent on the selected dataset. This is because the training for forming a model in a particular language must use the same language so that the quality of the synthetic sound produced can resemble the proper pronunciation and prosody. In this study, training is aimed to form Tacotron2 model in Bahasa Indonesia. So, to get better results, a dataset in Bahasa Indonesia from recorded podcasts and talk shows are developed. Based on the dataset, two scenarios of training were conducted to obtain the most optimal results. The first scenario is to conduct training on the Tacotron2 model using the dataset consisting of many speakers. The second scenario is to conduct training on the Tacotron2 model the dataset consisting of only one speaker. Both scenarios employed the Tacotron2 model and the hyperparameters used in previous work (Shen, et al., 2018).
The results of each scenario are evaluated using the Mean Opinion Score (MOS). Questionnaires are distributed to 25 respondents to assess the quality of the sound formed based on the MOS assessment criteria. The sound formed by the Tacotron2 model in the first scenario produces an MOS value of 4,012. While the sound formed by the Tacotron2 model in the second scenario produces an MOS value of 3.78. This shows that the use of Indonesian language dataset from recorded podcasts and talk shows in the formation of the Tacotron2 model for Bahasa Indonesia produces a good quality.
"
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2021
T-pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Galangkangin Gotera
"Singlish adalah sebuah bahasa informal yang sering digunakan warga Singapura. Karena informal, bahasa Singlish jarang ditemukan di media umum seperti majalah, koran, dan artikel internet. Meski demikian, bahasa ini sangat sering digunakan oleh warga Singapu- ra pada percakapan sehari-hari, baik daring maupun luring. Banyak campuran bahasa lain (code-mixing) merupakan tantangan lain dari Singlish. Keterbatasan GPU juga menjadi tantangan dalam mendapatkan model yang baik. Mempertimbangkan semua tantangan ini, penulis telah melatih sebuah model Efficiently Learning an Encoder that Classifies Token Replacements Accurately (ELECTRA) pada data berbahasa Singlish. ELECTRA merupakan sebuah model baru yang menawarkan waktu training lebih cepat sehingga menjadi pilihan baik jika memiliki keterbatasan GPU. Data Singlish didapatkan melalui web scraping pada reddit dan hardwarezone. Penulis membuat sebuah dataset benchmark pada dua buah permasalahan yaitu sentiment analysis dan singlish identification dengan anotasi manual sebagai metode untuk mengukur kemampuan model dalam Singlish. Penulis melakukan benchmarking pada model yang dilatih dengan beberapa model yang tersedia secara terbuka dan menemukan bahwa model ELECTRA yang dilatih memiliki perbedaan akurasi paling besar 2% dari model SINGBERT yang dilatih lebih lama dengan data yang lebih banyak.

Singlish is an informal language frequently used by citizens of Singapore (Singaporeans). Due to the informal nature, Singlish is rarely found on mainstream media such as magazines, news paper, or internet articles. However, the language is commonly used on daily conversation, whether it be online or offline. The frequent code-mixing occuring in the language is another tough challenge of Singlish. Considering all of these challenges, we trained an Efficiently Learning an Encoder that Classifies Token Replacements Accurately (ELECTRA) model on a Singlish corpus. Getting Singlish data is hard, so we have built our own Singlish data for pre-training and fine-tuning by web scraping reddit and hardwarezone. We also created a human-annotated Singlish benchmarking dataset of two downstream tasks, sentiment analysis and singlish identification. We tested our models on these benchmarks and found out that the accuracy of our ELECTRA model which is trained for a short time differ at most 2% from SINGBERT, an open source pre-trained model on Singlish which is trained with much more data."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2021
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Abdul Azis Abdillah
"Diabetes is one of the
most serious health challenges in both developed and developing countries. Early detection and accurate diagnosis of
diabetes can reduce the risk of complications. In recent years, the use of machine learning in predicting disease has
gradually increased. A promising classification technique in machine
learning is the use of support vector machines in combination with radial basis
function kernels (SVM-RBF). In this study, we used SVM-RBF to predict diabetes.
The study used a Pima Indian diabetes dataset from the University of
California, Irvine (UCI) Machine Learning Repository. The subjects were female and
≥ 21 years
of age at the time of the index examination. Our experiment design used 10-fold
cross-validation. Confusion matrix and ROC were used to calculate performance
evaluation. Based on the experimental results, the study demonstrated that SVM-RBF
shows promise in aiding diagnosis of Pima Indian diabetes disease in the early
stage."
2016
J-Pdf
Artikel Jurnal  Universitas Indonesia Library
cover
Abdul Azis Abdillah
"Diabetes is one of the most serious health challenges in both developed and developing countries. Early detection and accurate diagnosis of diabetes can reduce the risk of complications. In recent years, the use of machine learning in predicting disease has gradually increased. A promising classification technique in machine learning is the use of support vector machines in combination with radial basis function kernels (SVM-RBF). In this study, we used SVM-RBF to predict diabetes. The study used a Pima Indian diabetes dataset from the University of California, Irvine (UCI) Machine Learning Repository. The subjects were female and ? 21 years of age at the time of the index examination. Our experiment design used 10-fold cross-validation. Confusion matrix and ROC were used to calculate performance evaluation. Based on the experimental results, the study demonstrated that SVM-RBF shows promise in aiding diagnosis of Pima Indian diabetes disease in the early stage."
Depok: Faculty of Engineering, Universitas Indonesia, 2016
UI-IJTECH 7:5 (2016)
Artikel Jurnal  Universitas Indonesia Library
cover
Pandapotan, Adolf
"Tujuan Tugas Akhir ini adalah mengimplementasikan algoritma clustering (sebagai bagian dari Data Mining Algorithms Collection) menggunakan bahasa pemrograman C++. Ada 2 algoritma clustering yang diimplementasikan yaitu Cobweb dan Iterate. Uji coba dilakukan dengan membandingkan kecepatan eksekusi dari implementasi Cobweb dengan Cobweb pada WEKA dan implementasi Iterate, serta membandingkan kualitas partisi implementasi Cobweb dengan Cobweb pada WEKA dan implementasi Iterate. Ada 2 jenis data uji coba yaitu dataset kecil dan dataset besar. Hasil uji coba menunjukan algoritma Cobweb pada WEKA bukan algoritma Cobweb murni, waktu eksekusi Cobweb implementasi lebih cepat dari WEKA namun lebih lambat dari Iterate implementasi, urutan data berpengaruh terhadap hasil Cobweb, dan kualitas Iterate lebih baik dari Cobweb. Kata kunci: clustering, Cobweb, data mining, dataset, Iterate.
The purpose of this mini thesis is to implement clustering algorithms (as part of Data Mining Algorithms Collection) using C++. There are two clustering algorithms that are implemented, that are Cobweb and Iterate. The experiment is done by comparing the execution speed of Cobweb implementation with Cobweb in WEKA and Iterate implementation, also comparing the partition quality of Cobweb implementation with Cobweb in WEKA and Iterate implementation. There are two kinds of experiment data, which are small dataset and large dataset. The test results show that Cobweb algorithm in WEKA is not pure Cobweb algorithm, the execution time of Cobweb implementation is faster than WEKA but slower than Iterate implemetation, the data sorted affected to the Cobweb result and the quality of Iterate is better than Cobweb."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2008
S-Pdf
UI - Skripsi Open  Universitas Indonesia Library
cover
Kuni Inayah
"Dengan semakin berkembanganya teknologi dan sistem informasi pada area siber, ancaman siber juga semakin meningkat. Berdasarkan Laporan Honeynet BSSN Tahun 2023, Indonesia menduduki peringkat pertama sebagai negara dengan sumber serangan tertinggi. Untuk mengatasi permasalahan tersebut, IDS dijadikan solusi di berbagai sistem pemerintahan, bekerja sama dengan Honeynet BSSN. Namun, pada sistem IDS ini tidak bekerja secara maksimal untuk melakukan deteksi terhadap anomali atau jenis serangan baru yang belum belum pernah terjadi sebelumnya (zero-day). Solusi untuk meningkatkan performa IDS salah satunya dengan menggunakan machine learning. Beberapa studi sebelumnya membahas tentang perbandingan berbagai algoritma klasifikasi dan didapatkan bahwa algoritma random forest memiliki tingkat akurasi yang tinggi, tingkat false positive yang rendah, dan dalam hal komputasi tidak memerlukan sumber daya yang besar. Oleh karena itu, pada penelitian ini menggunakan algoritma random forest sebagai algoritma klasifikasinya. Dataset yang dipakai menggunakan dataset CIC-ToN-IoT sebagai dataset whitelist dan dataset dari Honeynet BSSN sebagai dataset blacklist. Model diklasifikasikan menjadi 10 (sepuluh) klasifikasi yaitu benign, Information Leak, Malware, Trojan Activity, Information Gathering, APT, Exploit, Web Application Attack, Denial of Service (DoS), dan jenis serangan lainnya (other). Hasil evaluasi menunjukkan bahwa implementasi algoritma random forest dengan dataset CIC-ToN-IoT dan dataset honeynet BSSN memiliki nilai akurasi yang tinggi dalam menganalisis berbagai serangan yang terjadi pada sistem informasi di lingkungan Pemerintah yaitu 99% dan dengan jumlah support data yang besar, model memiliki nilai presisi yang tinggi yaitu 91%.

With the increasing development of technology and information systems in the cyber area, cyber threats are also increasing. Based on the 2023 BSSN Honeynet Report, Indonesia is ranked first as the country with the highest source of attacks. To overcome these problems, IDS is used as a solution in various government systems, in collaboration with Honeynet BSSN. However, this IDS system does not work optimally to detect anomalies or new types of attacks that have never happened before (zero-day). One solution to improving IDS performance is by using machine learning. Several previous studies discussed the comparison of various classification algorithms and found that the random forest algorithm had a high level of accuracy, a low false positive rate, and in terms of computing did not require large resources. Therefore, this research uses the random forest algorithm as the classification algorithm. The dataset used uses the CIC-ToN-IoT dataset as a whitelist dataset and a dataset from Honeynet BSSN as a blacklist dataset. The model is classified into 10 (ten) classifications, namely benign, Information Leak, Malware, Trojan Activity, Information Gathering, APT, Exploit, Web Application Attack, Denial of Service (DoS), and other types of attacks. The evaluation results show that the implementation of the random forest algorithm with the CIC-ToN-IoT dataset and the BSSN honeynet dataset has a high accuracy value in analyzing various attacks that occur on information systems in the government environment, namely 99% and with a large amount of data support, the model has high precision value, namely 91%."
Jakarta: Fakultas Teknik Universitas Indonesia, 2024
T-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Nabila Khansa
"Ujaran kebencian dan bahasa kasar mempermudah penyebaran kekerasan di kehidupan nyata, sehingga muncul urgensi adanya pendeteksian secara otomatis. Untuk melanjutkan pekerjaan yang sudah dilakukan oleh Ibrohim dan Budi (2019), penelitian ini membahas dua isu terkait deteksi ujaran kebencian dan bahasa kasar pada mikroblog berbahasa Indonesia. Isu pertama adalah kajian terkait effect size fitur dan pengembangan model menggunakan fitur-fitur tersebut. Metode Analysis of Variance f-test, Logistic Regression Analysis, dan nilai Shapley digunakan untuk melakukan kajian effect size pada fitur-fitur yang dirancang secara manual. Kemudian, digunakan beberapa algoritma pemelajaran mesin untuk mengembangkan model prediksi berbasis fitur-fitur tersebut. Isu kedua adalah kajian bias dalam pengembangan model terkait keberadaan kata-kata bersifat netral pada data yang merupakan ujaran kebencian atau bahasa kasar. Kajian terkait bias dilakukan dengan menggunakan dataset uji bias. Dataset ini dikembangkan dengan menggantikan kata-kata yang dideteksi memiliki potensi adanya bias pada model yang dilatih menggunakan dataset hasil pekerjaan Ibrohim dan Budi (2019). Penelitian ini menunjukkan bahwa keberadaan kata-kata tertentu berpengaruh terhadap hasil deteksi ujaran kebencian dan bahasa kasar. Di antara kata-kata tersebut, terdeteksi beberapa kata-kata yang berpotensi bias, karena memiliki pengaruh terhadap pendeteksian padahal secara sendiri kata-kata yang dideteksi sebagai potensi bias tidak memiliki unsur kebencian atau bersifat kasar. Hasil evaluasi pengambilan sampel bootstrap menunjukkan Logistic Regression dan XGBoost sebagai model dengan akurasi terbaik dalam pendeteksian ujaran kebencian dan bahasa kasar. Namun, ketika model yang sudah dikembangkan digunakan untuk memprediksi dataset sintetis, didapatkan penurunan akurasi dalam pendeteksian ujaran kebencian. Hasil ini menandakan adanya bias pada model yang dikembangkan. Hasil tersebut didukung juga oleh hasil prediksi dengan akurasi rendah ketika model digunakan untuk melakukan pendeteksian ujaran kebencian pada dataset yang dikembangkan secara manual, tetapi ketika kata-kata bias digantikan dari data, akurasi model meningkat. Kontribusi yang diberikan oleh penelitian ini adalah pengembangan dataset uji bias secara otomatis dari dataset yang dikembangkan oleh Ibrohim dan Budi (2019) dan juga dataset uji bias yang dikembangkan secara manual.

Hate speech and abusive language facilitate the spread of violence in real life, hence the urgency of automatic detection. To continue the work done by Ibrohim dan Budi (2019), this research addresses two issues related to the detection of hate speech and abusive language on Indonesian-language microblogs. The first issue is a study on the effect size of features and the development of models using these features. Analysis of Variance f-test, Logistic Regression Analysis, and Shapley values are used to investigate the effect size of manually designed features. Several machine learning algorithms are then employed to develop prediction models based on these features. The second issue involves studying bias in model development concerning the presence of neutral words in data that constitute hate speech or abusive language. The study related to bias is conducted by using a bias test dataset. This dataset is developed by replacing words that are detected to have the potential for bias in models trained using the dataset resulting from the work of Ibrohim dan Budi (2019). This research demonstrates that certain words significantly influence the detection of hate speech and abusive language. Among these words, some are identified as potentially biased, as they affect detection despite not inherently containing hate or abusive elements. The results of bootstrap sampling evaluation indicate that Logistic Regression and XGBoost are the models with the highest accuracy in detecting hate speech and abusive language. However, when the developed models are used to predict synthetic datasets, a significant decrease in accuracy is observed in hate speech detection. This finding indicates the presence of bias in the developed models. This result is further supported by low-accuracy predictions when the models are used to detect hate speech in manually developed datasets. However, when biased words are replaced in the data, the model’s accuracy significantly improves. The contributions of this research include the development of an automatically generated bias test dataset from the dataset created by Ibrohim dan Budi (2019), as well as a manually developed bias test dataset."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Adinda Maharani Dwi Yuan Syah
"ABSTRAK
Daerah perbatasan perairan Indonesia merupakan salah satu wilayah yang rentan akan kegiatan ilegal yang dapat merugikan negara. Oleh karena itu, perlu adanya pengawasan untuk setiap objek yang melewati perbatasan perairan tersebut. Pengawasan dapat dilakukan dengan pendeteksian jenis kapal yang melewati area perbatasan antar negara. Saat ini di Indonesia sudah terdapat pendeteksian khusus untuk mendeteksi adanya kapal perang asing. Selain kapal perang, kapal nelayan juga perlu dilakukan pengawasan untuk mencegah adanya illegal fishing. Pendeteksian kapal perang dan kapal nelayan dapat dilakukan dengan menggunakan mesin. Mesin dapat diprogram untuk menjalani perintah secara berulang kali, hal tersebut disebut sebagai Machine Learning, yang merupakan salah satu bidang dari Artificial Intelligence. Metode untuk memprogram pembelajaran mesin tersebut disebut dengan Deep Learning. Deep learning bekerja dengan membentuk hubungan antara neuron seperti layaknya cara kerja otak manusia atau biasa disebut dengan neural network.Salah satu jenis dari neural network yang terkenal adalah Convolutional Neural Network(CNN). CNN digunakan untuk simulasi pendeteksian kapal nelayan dan kapal militer dengan hasil keluaran berupa nilai akurasi training, akurasi validasi, dan juga prediksi. CNN juga ditambahkan additional layer, yaitu dropout dan batch normalization untuk meningkatkan ketepatan prediksi. Hasil yang didapatkan adalah pengaruh dari parameter layer dan dataset yang digunakan terhadap nilai akurasi pada pelatihan program. Dari simulasi didapatkan nilai akurasi yang paling baik dengan penggunaan pooling layer jenis max pooling dengan penggunaan layer tambahan berupa batch normalization dan dropout.

ABSTRACT
Indonesia's waters border is one of the areas that are vulnerable to illegal activities that can disserve the country. Detecting types of ships that cross border areas between countries is needed. Controlling can use machine thats automatically detect the object can do detection of warships and fishing boats. The concept is called machine learning. Machine learning is one of the types of Artificial Intelligence. The method for programming the machine learning is called Deep Learning. Deep learning works by forming relationships between neurons like the way the human brain works or commonly called a neural network. Convolutional Neural Network (CNN) is the famous method for deep learning. CNN is used to simulate the detection of fishing vessels and military vessels with the output in the form of training accuracy, validation accuracy, and the final prediction. CNN can also added an additional layer, namely dropout and batch normalization to improve the accuracy of predictions. The results obtained are the effect of the layer and dataset parameters used on the accuracy value in the training program. The best accuracy is obtained by using max pooling for pooling layer with additional layers of batch normalization and dropout."
Depok: Fakultas Teknik Universitas Indonesia, 2019
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Yuliana Portti
"Penelitian ini mengusulkan tiga algoritma meta-heuristik berbasis Fuzzy K-modes untuk clustering binary data set. Ada tiga metode metaheuristik diterapkan, yaitu Particle Swarm Optimization (PSO), Genetika Algoritma (GA), dan Artificial Bee Colony (ABC). Ketiga algoritma digabungkan dengan algoritma K-modes. Tujuannya adalah untuk memberikan modes awal yang lebih baik untuk K-modes. Jarak antara data ke modes dihitung dengan menggunakan koefisien Jaccard. Koefisien Jaccard diterapkan karena dataset mengandung banyak nilai nol . Dalam rangka untuk melakukan pengelompokan set data real tentang supplier otomotif di Taiwan, algoritma yang diusulkan diverifikasi menggunakan benchmark set data. Hasil penelitian menunjukkan bahwa PSO K-modes dan GA K-modes lebih baik dari ABC K-modes. Selain itu, dari hasil studi kasus, GA K-modes memberikan SSE terkecil dan juga memiliki waktu komputasi lebih cepat dari PSO K-modes dan ABC K-modes.

This study proposed three meta-heuristic based fuzzy K-modes algorithms for clustering binary dataset. There are three meta-heuristic methods applied, namely Particle Swarm Optimization (PSO) algorithm, Genetic Algorithm (GA) algorithm, and Artificial Bee Colony (ABC) algorithm. These three algorithms are combined with k-modes algorithm. Their aim is to give better initial modes for the k-modes. Herein, the similarity between two instances is calculated using jaccard coefficient. The Jaccard coefficient is applied since the dataset contains many zero values. In order to cluster a real data set about automobile suppliers in Taiwan, the proposed algorithms are verified using benchmark data set. The experiments results show that PSO K-modes and GA K-modes is better than ABC K-modes. Moreover, from case study results, GA fuzzy K-modes gives the smallest SSE and also has faster computational time than PSO fuzzy K-modes and ABC fuzzy K-modes.
"
Depok: Fakultas Teknik Universitas Indonesia, 2015
T44406
UI - Tesis Membership  Universitas Indonesia Library
cover
Mufiedah
"Penelitian mengenai klasifikasi emosi manusia sudah berlangsung lama. Pada umumnya yang dikembangkan adalah algoritma pengklasifikasiannya dengan menggunakan dataset EEG laboratory-grade yang sudah tersedia secara bebas. Penelitian ini bertujuan membuat dataset klasifikasi emosi manusia berbasis peranngkat EEG komersil. Responden direkrut secara online dan yang memenuhi kriteria diminta  untuk menonton 6 video stimuli emosi sambil direkam aktivitas kelistrikan otaknya menggunakan perangkat EEG komersil. Tiap video stimuli diperuntukkan untuk memancing emosi yang berbeda, yaknik emosi sedih, takut, jijik, marah, tenang, dan senang. Responden juga diminta unutk mengisi kuesioner untuk tiap video stimuli yang ditonton. Dari 27 responden yang direkam data EEG-nya, hasil rekam dari 3 responden harus dieliminasi karena kualitas hasil rekam yang buruk. Hasil analisa kuesioner menunjukkan bahwa sebagian besar video stimuli sudah berhasil memancing emosi responden sesuai dengan tujuannya. Sedangkan hasil rekam signal EEG dibuat dataset untuk melatih algoritma Deep Learning model Recurrent Neural Network (RNN) untuk klasifikasi emosi manusia. Setelah melewati 16 epoch dan tidak ada perbaikan sampai epoch ke-46, nilai akurasi yang dicapai adalah sebesar 33%.

The majority of studies on the classification of human emotions have relied on the analysis of pre-existing datasets. We generated a dataset using consumer-grade EEG devices, which could be a big step forward for EEG research. Respondents were recruited online based on specific criteria and asked to watch a series of six videos while recording their brain's electrical activity using an EEG device and asked to complete a questionnaire for each video they watched. Out of the 27 respondents whose EEG data were recorded, the recordings from 3 respondents had to be eliminated due to the poor quality of the recordings. The results of the questionnaire analysis show that most of the video stimuli have succeeded in evoking the intended respondents’ emotions. Meanwhile, the EEG signal recording results are made into a dataset to train the Deep Learning algorithm using Recurrent Neural Network (RNN) method for the classification of human emotions. After passing 16 epochs and no improvement until the 46th epoch, the accuracy value achieved is 33%."
Depok: Fakultas Teknik Universitas Indonesia, 2023
T-pdf
UI - Tesis Membership  Universitas Indonesia Library
<<   1 2 3   >>