Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 43 dokumen yang sesuai dengan query
cover
Muhamad Faarih Ihsan
"Fokus utama penelitian ini adalah merancang dan mengembangkan prototipe sistem registrasi IRS berbasis
event-driven architecture serta mengevaluasi sistem tersebut dengan eksperimen chaos engineering.
Implementasi sistem menggunakan Spring Boot framework, Apache Kafka sebagai event broker, dan Amazon
Web Service (AWS) untuk infrastruktur. Pengujian dilakukan dengan melakukan API testing untuk menguji
fungsionalitas sistem dan load testing untuk menguji reliability sistem. Terakhir, eksperimen chaos engineering
dengan metode chaos monkey dilakukan untuk menguji resilience sistem. Hasil pengujian menunjukkan bahwa
fungsionalitas sistem sebagai layanan IRS bekerja dengan baik. Sistem dapat tetap bekerja di bawah tekanan
40.000 mahasiswa yang disimulasikan mengakses sistem bersamaan. Pada kondisi chaos di mana beberapa
server dimatikan, sistem masih dapat berfungsi dengan baik dan mahasiswa masih dapat menggunakan layanan
registrasi IRS tanpa masalah.

The main focus of this research is to design and develop a prototype of an event-driven architecture based course
registration service, and to evaluate the system with chaos engineering. The system was implemented using
Spring Boot as its framework, Apache Kafka as the event broker, and Amazon Web Service (AWS) for
infrastructure. The testing was done by implementing API testing for evaluating the system’s functionality and
load testing to evaluate system’s reliability. Finally, a chaos engineering experiment was carried out to evaluate
the resilience of the system. The result shows that the system can deliver its functionality as a course plan
registry pretty well. The system was able to work under the pressure of 40.000 student simulated to access the
system simultaneously. In the chaos condition where several server were taken down, the system still performs
well and able to provide the service without any problem for the students.
"
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2022
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Rico Tadjudin
"

Grammatical Error Correction (GEC) merupakan bagian dari Natural Language Processing yang membahas suatu task untuk mendeteksi dan setelahnya mengoreksi suatu teks. Pekerjaan tersebut mencakup pendeteksian dan pengoreksian kesalahan tata bahasa, kesalahan ortografi, dan semantik. Perkembangan GEC untuk bahasa Indonesia terkendala oleh sedikitnya dataset yang dapat digunakan untuk melatih model GEC. Penelitian ini mengusulkan pendekatan rule-based untuk membangun sebuah dataset sintetik yang mengandung kalimat salah secara tata bahasa baku bahasa Indonesia beserta koreksinya. Hal tersebut dapat dilakukan dengan memanfaatkan kamus tesaurus bahasa Indonesia dan alat bantuan NLP seperti tokenizer, part-of-speech tagger, morphological analyzer, dan dependency parser untuk mengekstrak informasi konteks dari kalimat. Kumpulan data sintetik dibangkitkan dengan menggunakan kalimat yang benar secara tata bahasa dari halaman0halaman situs Wikipedia sebagai kalimat input. Dataset ini menyediakan data dalam dua format yang berbeda, yaitu dalam format M2 dan dalam bentuk pasangan kalimat salah dan benar. Pembangkitan kesalahan tata bahasa akan memiliki 17 kemungkinan jenis kesalahan tata bahasa yang berbeda dengan total 16.898 kalimat salah yang dibentuk. Pengujian Gramatika dilakukan dengan melakukan evaluasi secara manual mengenai ketepatan pembangkitan tiap kesalahan pada kalimat. Pengujian manual dilakukan dengan melakukan stratified random sampling untuk mengambil sampel 100 kalimat. Sampel tersebut minimal memiliki 5 contoh untuk setiap jenis kesalahan tata bahasa. Dari pengevaluasian yang dilalukan oleh dua penguji, didapatkan nilai accuracy sebesar 91,1%.


Grammatical Error Correction (GEC) is a part of Natural Language Processing which deals with the task of detecting and correcting a text. This includes correcting grammatical errors, semantic errors, and orthographic errors. GEC development in Indonesian language has been hindered by the lack of suitable dataset that can be used to train GEC models. This research proposes a rule-based approach to develop a synthetic dataset that contains sentences in Indonesian with grammar errors and its corresponding corrections. It’s done with the help of dictionaries such as Indonesian thesaurus and NLP tools such as a tokenizer, part of speech tagger, morphological analyzer, and dependency parser to extract contextual information of sentences. The synthetic dataset is generated by using grammatically correct sentences from Wikipedia pages as the input. The resulting dataset is formatted to M2 format and pairs of correct and false sentences, containing 17 types of errors with a total of 16.898 sentences. The evaluation of Gramatika is done by manually assessing the accuracy of the sentence modifications. To do this, stratified random sampling is conducted to select 100 sentences with a minimum of 5 examples for each error type. From the manual evaluation by two evaluators, an average accuracy score of 91.1% is obtained.

"
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Michael Felix Haryono
"Grammatical Error Correction (GEC) merupakan bagian dari Natural Language Processing yang membahas suatu task untuk mendeteksi dan setelahnya mengoreksi suatu teks. Pekerjaan tersebut mencakup pendeteksian dan pengoreksian kesalahan tata bahasa, kesalahan ortografi, dan semantik. Perkembangan GEC untuk bahasa Indonesia terkendala oleh sedikitnya dataset yang dapat digunakan untuk melatih model GEC. Penelitian ini mengusulkan pendekatan rule-based untuk membangun sebuah dataset sintetik yang mengandung kalimat salah secara tata bahasa baku bahasa Indonesia beserta koreksinya. Hal tersebut dapat dilakukan dengan memanfaatkan kamus tesaurus bahasa Indonesia dan alat bantuan NLP seperti tokenizer, part-of-speech tagger, morphological analyzer, dan dependency parser untuk mengekstrak informasi konteks dari kalimat. Kumpulan data sintetik dibangkitkan dengan menggunakan kalimat yang benar secara tata bahasa dari halaman0halaman situs Wikipedia sebagai kalimat input. Dataset ini menyediakan data dalam dua format yang berbeda, yaitu dalam format M2 dan dalam bentuk pasangan kalimat salah dan benar. Pembangkitan kesalahan tata bahasa akan memiliki 17 kemungkinan jenis kesalahan tata bahasa yang berbeda dengan total 16.898 kalimat salah yang dibentuk. Pengujian Gramatika dilakukan dengan melakukan evaluasi secara manual mengenai ketepatan pembangkitan tiap kesalahan pada kalimat. Pengujian manual dilakukan dengan melakukan stratified random sampling untuk mengambil sampel 100 kalimat. Sampel tersebut minimal memiliki 5 contoh untuk setiap jenis kesalahan tata bahasa. Dari pengevaluasian yang dilalukan oleh dua penguji, didapatkan nilai accuracy sebesar 91,1%.

Grammatical Error Correction (GEC) is a part of Natural Language Processing which deals with the task of detecting and correcting a text. This includes correcting grammatical errors, semantic errors, and orthographic errors. GEC development in Indonesian language has been hindered by the lack of suitable dataset that can be used to train GEC models. This research proposes a rule-based approach to develop a synthetic dataset that contains sentences in Indonesian with grammar errors and its corresponding corrections. It’s done with the help of dictionaries such as Indonesian thesaurus and NLP tools such as a tokenizer, part of speech tagger, morphological analyzer, and dependency parser to extract contextual information of sentences. The synthetic dataset is generated by using grammatically correct sentences from Wikipedia pages as the input. The resulting dataset is formatted to M2 format and pairs of correct and false sentences, containing 17 types of errors with a total of 16.898 sentences. The evaluation of Gramatika is done by manually assessing the accuracy of the sentence modifications. To do this, stratified random sampling is conducted to select 100 sentences with a minimum of 5 examples for each error type. From the manual evaluation by two evaluators, an average accuracy score of 91.1% is obtained.
"
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Rama Widragama Putra
"Para penyandang tunarungu berkomunikasi menggunakan bahasa isyarat resmi di Indonesia, yaitu SIBI (Sistem Isyarat Bahasa Indonesia). Dengan menggunakan aplikasi penerjemah Bahasa isyarat ke teks akan membantu komunikasi antara tunarungu maupun non-tunarungu. Dengan menggunakan pre-trained model CPM (EdvardHua, 2018) akan mendapatkan informasi berupa titik-titik skeleton seperti titik tangan, bahu, dan siku. Informasi titik skeleton itu akan digunakan untuk memprediksi kata. Namun, proses tersebut perlu berjalan secara real-time, yaitu ketika pengguna membuka kamera maka akan langsung mendapatkan respon. Untuk mencapai itu diperlukan mobile deep learning framework, sehingga proses inference bisa menjadi lebih cepat dengan bantuan runtime GPU. Penelitian ini berfokus menjalankan inference menggunakan mobile deep learning framework untuk implementasi modul ekstraksi skeleton secara real-time pada Android. Pada penelitian ini digunakan Tensorflow mobile (runtime hanya CPU), MACE, dan SNPE. Dilakukan pengukuran dari sisi latency, penggunaan energi, penggunaan memori, penggunaan daya, dan perubahan suhu. Hasil pengukuran menunjukkan bahwa penggunaan MACE dan SNPE dengan runtime GPU menghasilkan latency yang lebih kecil dibandingkan penggunaan CPU. Penggunaan CPU menyebabkan thermal throttling, sehingga terjadi penurunan kinerja. Dengan runtime GPU menghasilkan penggunaan energi, memori, dan daya yang lebih sedikit dibandingkan CPU. Kenaikan suhu ketika menggunakan runtime GPU lebih kecil dibandingkan CPU.

People with hearing impairments use the official sign language in Indonesia, namely SIBI (Sistem Isyarat Bahasa Indonesia). Using a sign language-to-text translator application will help the communication between people with hearing impairments and people without hearing impairment. By using the pre-trained CPM model (EdvardHua, 2018), the information in the form of skeleton points such as the points of the hands, shoulders, and elbows will be obtained. The skeleton point information will be used to predict its translation words. However, the translation process needs to be run in real- time, which is when users open their cameras then they will immediately receive a respond. To achieve that goal, we need a mobile deep learning framework, with the result that the inference process is faster with the help of the GPU runtime. This research focuses on running inferences using a mobile deep learning framework to implement real-time skeleton extraction module in Android. This research uses Tensorflow mobile (runtime only for CPU), MACE, and SNPE. Measurements of the latency, energy usage, memory usage, power usage, and temperature change were taken. The measurement results show that the use of MACE and SNPE with GPU runtime is in lower latency than with the use of CPU. Measurement with CPU usage causes thermal throttling, resulting in decreased performance. Measurement with GPU runtime results in lower usage of energy, memory and power compared to the measurement with CPU. The temperature increase when using the GPU runtime is lower than when using the CPU."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2020
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Oemar Syarief Wibisono
"Beras merupakan makanan pokok mayoritas masyarakat Indonesia. Jika dibandingkan dengan konsumsi tahun 2019, konsumsi beras nasional meningkat sekitar 4,67 persen pada tahun 2021. Hal ini menunjukan bahwa setiap tahun konsumsi beras nasional akan meningkat karena seiring dengan pertumbuhan jumlah penduduk Indonesia. Sehingga dibutuhkan data produksi beras yang akurat dan tepat waktu untuk dapat menjaga ketersediaan stok beras nasional. Data citra satelit bisa menjadi alternatif untuk memprediksi produksi padi dikarenakan kekurangan yang dimiliki oleh metode survei yang dilakukan oleh BPS yaitu biaya yang cukup tinggi dan terdapat tenggang waktu diseminasi data. Gabungan citra SAR dan Optik dapat meningkatkan akurasi dari model yang dibangun. Selain itu penggunaan model deep learning memiliki akurasi yang lebih baik jika dibandingkan metode machine learning konvensional salah satunya kombinasi CNN dan Bi-LSTM yang mampu mengekstraksi fitur serta memiliki kemampuan untuk memodelkan data temporal dengan baik. Output yang diperoleh dengan menggunakan metode CNNBiLSTM untuk mengklasifikasikan fase pertumbuhan padi, menghasilkan akurasi yang terbaik dengan nilai akurasi 79,57 pada data testing dan 98,20 pada data training serta F1-score 79,78. Dengan menggunakan kombinasi data citra sentinel 1 dan 2 akurasi dari model LSTM dapat ditingkatkan. Selanjutnya akurasi yang didapatkan untuk model regresi produktivitas padi masih kurang baik. Akurasi terbaik dihasilkan oleh model random forest dengan nilai MAPE 0.1336, dan RSME 0,6871.

Rice is the staple food of the majority of Indonesian people. When compared to consumption in 2019, national rice consumption will increase by around 4.67 percent in 2021. This shows that every year rice consumption will increase in line with the growth of Indonesia's population. So that accurate and timely rice production data is needed to be able to maintain the availability of national rice stocks. Satellite imagery data can be an alternative for predicting rice production due to the drawbacks of the survey method conducted by BPS, which relatively high cost and the time span for data dissemination. The combination of SAR and Optical images can increase the accuracy of the model built. In addition, the use of deep learning models has better accuracy when compared to classical machine learning methods, one of them is the combination of CNN and Bi-LSTM which are able to extract features and have the ability to model temporal data properly. The output obtained using the CNNBiLSTM method to classify rice growth phases, produces the best accuracy with an accuracy value of 79.57 on testing data and 98.20 on training data and an F1-score of 79.78. By using a combination of sentinel 1 and 2 image data, the accuracy of the LSTM model can be improved. Furthermore, the accuracy obtained for the rice production regression model is still not good. The best accuracy was produced by the random forest model with a MAPE value of 0.1336 and RSME of 0.6871."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2024
T-pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Ageng Anugrah Wardoyo Putra
"

Walaupun belum semaju dan sekomprehensif bahasa-bahasa lainnya, penelitian NLP bahasa Indonesia telah mengalami perkembangan yang cukup signifikan. Penelitian NLP tersebut mencakup POS-Tagging, Named Entity Recognition, dependency parsing, coreference resolution, dan lain sebagainya. Dari penelitian-penelitian NLP bahasa Indonesia yang telah ada, perlu dilakukan validasi dan verifikasi apakah modul NLP pada penelitian tersebut masih relevan atau tidak. Hal tersebut perlu dilakukan karena mungkin saja terjadi kesalahan pada penelitian sebelumnya atau terdapat model yang lebih baik dari penelitian tersebut. Proses tersebut dapat dilakukan melalui evaluasi intrinsik maupun ekstrinsik. Evaluasi intrinsik dapat dilakukan dari reproduksi atau replikasi penelitian yang telah ada, sementara itu evaluasi ekstrinsik dilakukan dengan membangun sistem tanya jawab dari modul-modul NLP tersebut. Hasilnya, didapatkan beberapa modul seperti POS-Tagging dan NER masih cukup relevan dan memiliki dataset yang berkualitas. Namun, beberapa modul lain seperti coreference resolution, constituency parsing, dan dependency parsing masih perlu perkembangan lebih lanjut. Berdasarkan hasil evaluasi, sistem yang dibangun memiliki performa terbaik untuk metrik exact match dan F1 berturut-turut di angka 0,108 dan 0,151 untuk dataset SQuAD, 0,063 dan 0,191 untuk dataset TyDiQA, serta 0,127 dan 0,173 untuk dataset IDK-MRC. Dari evaluasi tersebut diketahui juga bahwa sistem tanya jawab yang dibangun menggunakan pipeline modul-modul NLP tidak sebaik model tanya jawab end-to-end menggunakan BERT yang telah di-finetuning. Meskipun begitu, dari hasil penelitian ini ditunjukkan bahwa kita dapat membangun suatu sistem tanya jawab berdasarkan modul-modul NLP bahasa Indonesia yang tersedia.


Although not as advanced and comprehensive as in other languages, research in Indonesian NLP has experienced significant development. This NLP research encompasses POS-Tagging, Named Entity Recognition, dependency parsing, coreference resolution, and other related areas. From the existing NLP studies conducted in the Indonesian language, it is essential to validate and verify whether the NLP modules used in the research are still relevant. This is important because there might have been errors in previous research or there might be better models available. This process can be accomplished through both intrinsic and extrinsic evaluations. Intrinsic evaluation can be conducted by reproducing or replicating existing research, while extrinsic evaluation involves building a question answering system using these NLP modules. The results show that some modules, such as POS-Tagging and NER, are still quite relevant and have high-quality datasets. However, other modules like coreference resolution, constituency parsing, and dependency parsing still require further development. Based on the evaluation results, the constructed system performs best in terms of exact match and F1 metrics, with scores of 0.108 and 0.151 for the SQuAD dataset, 0.063 and 0.191 for the TyDiQA dataset, and 0.127 and 0.173 for the IDK-MRC dataset, respectively. The evaluation also reveals that the question-answering system built using a pipeline of NLP modules does not perform as well as the end-to-end question-answering model using fine-tuned BERT. Nevertheless, this research demonstrates the feasibility of building a question-answering system based on the available Indonesian NLP modules.

"
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Jonathan Amadeus Hartman
"Aksara Pegon merupakan aksara Arab yang dimodifikasi untuk menulis bahasa Jawa, Sunda, dan Madura. Koleksi manuskrip aksara ini telah tersebar di seluruh Indonesia dan mancanegara, tetapi sayangnya belum ada platform digital yang dapat menyatukan koleksi-koleksi berharga tersebut. Salah satu jenis platform yang cocok digunakan untuk memuat metadata manuskrip secara lengkap dan mendukung kontribusi manuskrip dari pengguna adalah document management system (DMS). Oleh sebab itu, penelitian ini bertujuan untuk mengembangkan DMS untuk manuskrip Pegon yang dapat digunakan oleh para kolektor, santri, dan orang awam. Penelitian ini menggunakan metode requirement gathering untuk memahami kebutuhan pengguna terhadap DMS Pegon. Wawancara dengan calon pengguna dan benchmarking dengan aplikasi DMS lain dilakukan untuk membuat rancangan fitur dan antarmuka aplikasi. Hasil evaluasi rancangan fitur menunjukkan bahwa fitur-fitur yang akan diimplementasikan telah memenuhi kebutuhan calon pengguna. Lalu, hasil requirement gathering dijadikan dasar penyusunan product backlog item (PBI), pemilihan teknologi, dan rancangan arsitektur DMS Pegon. Proses pengembangan dilakukan dalam dua tahap, backend dan frontend dengan menerapkan metode Kanban. Implementasi DMS Pegon menggunakan arsitektur yang terkontainerisasi dalam Docker, meliputi Next.js, Strapi, Meilisearch, dan PostgreSQL. Sesudah tahap pengembangan usai, kriteria penerimaan dan nilai bisnis dari setiap item PBI digunakan sebagai ekspektasi pada evaluasi fungsionalitas. Hasilnya menunjukkan bahwa seluruh pengujian telah memenuhi ekspektasi dan arsitektur sistem serta seluruh fitur DMS Pegon telah berjalan sesuai dengan kebutuhan pengguna.

Pegon script is an adapted Arabic script used to write the Javanese, Sundanese, and Madurese languages. The manuscript collection of this script has been scattered throughout Indonesia and abroad, but unfortunately, there is no digital platform yet that can unite these valuable collections. One suitable platform to house complete manuscript metadata and support user contributions is a document management system (DMS). Therefore, this research aims to develop a DMS for Pegon manuscripts that can be used by collectors, traditional Muslim school students, and the general public. This research utilizes requirement gathering method to understand users’ needs for Pegon DMS. Interviews with potential users and benchmarking with other DMS applications were conducted to design the features and application interface. The evaluation of the feature design showed that the proposed features meet the needs of potential users. Based on the results of the requirement gathering process, product backlog items (PBI), technology selection, and Pegon DMS architecture were formulated. The development process was carried out in two phases, backend and frontend, using Kanban method. The implementation of the Pegon DMS utilized a containerized architecture within Docker, including Next.js, Strapi, Meilisearch, and PostgreSQL. After the development phase, acceptance criteria and business value for each PBI item were used as expectations in the functionality evaluation. The results showed that all tests met the expectations. Thus, the system architecture and all Pegon DMS features are in line with user requirements."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Nazria Rahmi
"Pelacakan objek merupakan salah satu permasalahan yang masih diteliti sampai saat ini. Penyelesaian permasalahan dengan menggunakan particle filter merupakan penyeleseain yang sudah banyak digunakan, namun penelitian terus dilakukan untuk meningkatkan kemampuan dari particle filter. Salah satu cara untuk meningkatkan kemampuan dari particle filter tersebut adalah dengan cara optimisasi. Optimisasi pada particle filter dapat meningkatkan akurasi dari metode particle filter pada pelacakan objek. Penelitian ini akan mencoba meningkatkan akurasi dari particle filter dengan menambahkan optimisasi cuckoo search. Cuckoo search merupakan optimisasi meta-heuristic yang berdasarkan pada kebiasaan dari burung parasit, yang dikombinasikan dengan Lévy flights. Pada experiment yang dilakukan terlihat bahwa optimisasi dari cuckoo search pada particle filter mampu meningkatkan akurasi dari pelacakan objek dibandingkan dengan metode lain. Pada penelitian ini metode yang diusulkan dapat mencapai presisi jauh lebih baik jika dibandingkan dengan metode dasar particle filter.

Object tracking is one that is still being discussed today. Solving problems using particle filters is a solution that has been widely used, but research is continuing to improve the ability of filter particles. One way to increase the ability of the particle filter is by optimizing. The optimization of filter particles can improve the accuracy of the particle filter method on the composition of objects. This research will try to improve the accuracy of particle filters by adding optimization of cuckoo search. The Cuckoo search is a meta-heuristic optimization based on the habits of the parasitic bird, combined with the flight levy. In the experiments carried out, it can be seen from the optimization of the search for cuckoo on filter particles which increases the efficiency of the object comparison compared to other methods. In this study the proposed method can achieve a precision of much better when compared to the basic method of particle filters"
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2021
T-pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Lhuqita Fazry
"Tujuan utama dari deteksi perubahan (change detection) adalah untuk mendeteksi perbedaan pada dua citra satelit di wilayah yang sama tetapi diambil pada waktu yang berbeda. Deteksi perubahan merupakan salah satu masalah penginderaan jauh yang cukup sulit karena perubahan yang ingin dideteksi (real-change) bercampur dengan perubahan semu (pseudo-change). Hal ini terjadi akibat adanya faktor perbedaan kecerahan, perbedaan kelembapan, perbedaan musim dan lain-lain yang terdapat pada kedua citra. Kemunculan Vision Transformer (ViT) sebagai model state-of-the-art pada berbagai permasalahan di Computer Vision turut serta menggeser peran Convolution Neural Network (CNN) di bidang deteksi perubahan. Walaupun ViT mampu menangkap interaksi jarak jauh long-range attention dari setiap patch citra, akan tetapi kompleksitas komputasinya meningkat secara kuadratik terhadap jumlah patch. Salah satu solusi untuk mengurangi kompleksitas komputasi pada ViT adalah dengan mereduksi matriks Key (K) dan Values (V) pada mekanisme Self-Attention (SA). Akan tetapi, reduksi tersebut menurunkan efektivitas ViT akibat adanya informasi yang hilang, sehingga terjadi trade-off antara efektivitas dan efisiensi pada metode deteksi perubahan. Untuk mengatasi masalah tersebut, penulis mengembangkan metode deteksi perubahan baru bernama WaveCD dengan memanfaatkan dekomposisi Discrete Wavelet Transform (DWT) untuk mereduksi matriks K dan V. Selain berfungsi untuk mereduksi data, dekomposisi DWT juga berfungsi untuk mengekstraksi fitur-fitur yang penting yang mewakili citra sehingga data awal dapat diaproksimasi melalui proses Inverse Discrete Wavelet Transform (IDWT). Pada dataset CDD, hasil evaluasi WaveCD mencapai kenaikan nilai IoU sebesar 14.7% dan F1-score sebesar 8% terhadap nilai evaluasi metode pembanding, SwinSUNet. Sedangkan pada dataset LEVIR-CD, hasil evaluasi WaveCD mencapai kenaikan nilai IoU sebesar 4% dan F1-score sebesar 2%

Change detection is a remote sensing task for detecting a change from two satellite imagery in the same area while being taken at different times. Change detection is one of the most difficult remote sensing tasks because the change to be detected (real-change) is mixed with apparent changes (pseudo-change) due to differences in the two images, such as brightness, humidity, seasonal differences, etc. The emergence of a Vision Transformer (ViT) as a new standard in Computer Vision, replacing Convolutional Neural Network (CNN), also shifts the role of CNN in the field of DP. Although ViT can capture long-range interactions between image patches, its computational complexity increases the number of patches quadratically. One solution to reduce the computational complexity in ViT is to reduce the Key (K) and Values (V) matrices in the Self-Attention(SA) mechanism. However, this reduction also reduces the effectiveness of ViT due to missing information, resulting in a trade-off between the effectiveness and efficiency of the method. To solve the problem, we developed a new change detection method called WaveCD. WaveCD uses Wave Attention (WA) instead of SA. WA uses the Discrete Wavelet Transform (DWT) decomposition to reduce the K and V matrices. Besides reducing the data, DWT decomposition also serves to extract important features that represent images so that the initial data can be approximated through the Inverse Discrete Wavelet Transform (IDWT) process. On the CDD dataset, WaveCD outperforms the stateof-the-art CD method, SwinSUNet, by 14.7% on IoU and 8% on F1-score. While on the LEVIR-CD dataset, WaveCD outperforms SwinSUNet by 4% on IoU and 2% on F1-score."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2023
T-pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Nina Sevani
"Transfer learning merupakan pengembangan dari pembelajaran mesin biasa (tradisional) yang dapat diterapkan pada cross-domain. Cross-domain adalah domain yang memiliki perbedaan pada feature space atau pada marginal dan conditional distribution, sehingga sulit ditangani dengan metode pembelajaran mesin biasa. Perbedaan ini banyak terjadi pada kasus computer vision atau pattern recognition seperti untuk mengenali korban bencana alam melalui foto yang diambil dari atas menggunakan drone atau helikopter. Terjadinya perbedaan feature space dan distribusi data ini karena adanya perbedaan sudut, cahaya, dan alat yang berbeda. Kondisi seperti ini semakin menyulitkan untuk dilakukannya klasifikasi gambar terlebih pada domain dengan keterbatasan label. Implementasi transfer learning terbukti dapat memberikan performance yang baik pada banyak kasus, termasuk kasus yang menggunakan dataset gambar.
Dalam transfer learning penting untuk menghindari terjadinya negative transfer learning, sehingga perlu dilakukan pengukuran kesamaan (similarity) antar domain. Penelitian ini menerapkan feature-representation-transfer dan menggunakan Maximum Mean Discrepancy (MMD) untuk mengukur jarak antar feature pada domain yang terlibat di transfer learning. Setelah mengukur kesamaan antar domain, maka akan dilakukan pemilihan feature berdasarkan jarak antar feature. Feature terpilih adalah feature yang mempunyai jarak kurang dari threshold yang ditentukan. Bobot akan diberikan kepada feature terpilih. Selain melakukan pemilihan feature berdasarkan kesamaan domain, metode ini juga melakukan pemilihan feature yang signifikan antar class label dan dalam class label dengan menggunakan ANOVA (Analysis of Variance). Hanya feature yang signifikan yang akan digunakan untuk proses prediksi.
Metode yang diusulkan juga menerapkan inter-cluster class label untuk memperkecil perbedaan conditional distribution. Prinsip kerja inter-cluster class label ini adalah menghitung jarak minimal dari instance pada domain target ke setiap center of cluster class label. Rumus jarak yang digunakan adalah Euclidean Distance. Properti statistik seperti rata-rata dan varians akan digunakan pada metode ini, untuk menggambarkan struktur data lokal dalam setiap domain. Penggunaan rata-rata digunakan untuk menentukan threshold dan pusat cluster class label, sedangkan varians digunakan untuk pemilihan feature yang signifikan. Proses prediksi label dilakukan berdasarkan feature terpilih yang telah diberi bobot dan jarak terpendek setiap instance ke salah satu class label.
Tidak terdapat parameter tambahan dalam fungsi pembelajaran yang diusulkan. Selain itu, proses penentuan label juga dilakukan tanpa iterasi, sehingga memungkinkan metode ini dapat dijalankan dengan keterbatasan resource. Hasil eksperimen menunjukkan bahwa metode yang diusulkan dapat memberikan performance sebesar 46,6%, pada saat menggunakan SVM sebagai classifier dan 51.7% pada saat menggunakan logistic regression. Akurasi yang didapat dengan SVM ini mengimbangi metode feature-representation-transfer sebelumnya. Namun akurasi dari logistic regression sudah dapat mengungguli metode sebelumnya. Hasil ini menunjukkan bahwa penggunaan metode feature selection menggunakan properti statistik yang dikombinasikan dengan pemberian bobot pada feature terpilih dan jarak minimal dapat memberikan hasil akurasi yang baik tanpa memerlukan resource yang besar.

Transfer learning is the extension of traditional machine learning in a cross-domain environment. Cross-domains are domains with different feature spaces or different marginal and conditional distributions. Many real-world cases of computer vision and pattern recognition, such as the surveillance of some victims of natural disasters from above using a drone or helicopter, have these differences. These conditons are difficult to handle with traditional machine learning methods. The differences in feature space or data distribution caused by the existence of different angles, different light, and different tools. All of these situation add difficulty to the classification process, especially in domains with limited labels. The implementation of transfer learning is proven to provide good performance in many cases of cross-domain learning, including cases that use image datasets.
In transfer learning, it is important to measure the similarity between domains to avoid negative transfer learning. This study applies feature-representation-transfer and uses Maximum Mean Discrepancy (MMD) to measure the distance between features in the cross-domains and reduce the domain discrepancy. After measuring the similarity between domains, a feature selection will be made based on the distance between the features. Selected features are features that have a distance less than the specified threshold. Weight will be given to the selected features. In addition to selecting features based on domain similarity, this method also selects significant features between class labels and within class labels using ANOVA (Analysis of Variance). Only significant features will be used for the prediction process.
The proposed method also applies an inter-cluster class label to minimize the difference in conditional distribution. The inter-cluster class label works by calculating the minimum distance from the instance in the target domain to each center of the cluster class label. The distance formula used is Euclidean distance. Statistical properties such as mean and variance will be used in this method to describe the local data structure in each domain. The average is used to determine the threshold and center of the cluster class label, while the variance is used to select significant features. The label prediction process is carried out based on the selected features that have been weighted and the shortest distance for each instance to one of the label classes.
There are no additional parameters in the proposed learning function. In addition, the process of determining the label is also carried out without iteration, thus allowing this method to be run with limited resources. The experimental results show that the proposed method can provide a performance of 46.6% when using SVM as a classifier and 51.7% when using logistic regression. The accuracy obtained from SVM offsets the previous feature-representation transfer learning. However, the accuracy of logistic regression has been able to outperform the previous method. These results indicate that the use of the feature selection method using statistical properties combined with assigning weights to selected features and a minimum distance can provide good accuracy without requiring large resources.
"
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2023
D-pdf
UI - Disertasi Membership  Universitas Indonesia Library
<<   1 2 3 4 5   >>