Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 127292 dokumen yang sesuai dengan query
cover
Lily Fitria
"Penelitian ini bertujuan untuk mengembangkan sebuah Sistem Tanya Jawab (Question Answering System). Sistem Tanya Jawab merupakan sebuah sistem yang menerima masukan (input) pertanyaan dalam bahasa alami (natural language) bukan keywords, kemudian memproses koleksi dokumen yang tidak terstruktur, dan terakhir mengembalikan sebuah jawaban yang tepat sebagai keluaran (output), bukan dokumen. Sistem Tanya Jawab yang dihasilkan dalam penelitian ini menerima masukan sejumlah pertanyaan berbahasa Inggris dari query set Cross-Language Evaluation Forum (CLEF) dan menggunakan koleksi dokumen CLEF. Sistem Tanya Jawab ini dikembangkan dengan menerapkan teknik-teknik IR dan mengkombinasikannya dengan teknik pemrosesan bahasa alami. Aspek pemrosesan bahasa alami ditekankan pada analisis struktur ketergantungan (dependency structures) antar kata pada sebuah kalimat. Struktur ketergantungan antar kata diterjemahkan dalam skema anotasi hubungan sintaktik (syntactic relations annotation scheme). Hasil analisis struktur ketergantungan kalimat berupa aturanaturan yang dipakai untuk mengekstrak jawaban dan memperluas pertanyaan. Evaluasi terhadap Sistem Tanya Jawab menghasilkan 20 rights, 19 unsupporteds, dan 3 inexacts untuk query set tahun 2005 yang terdiri dari 92 queries. Sementara untuk query set tahun 2006 diperoleh 32 rights, 16 unsupporteds, dan 4 inexacts dari 152 queries."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2007
T-Pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Monica Lestari Paramita
"Pesatnya perkembangan informasi menuntut dikembangkannya suatu sistem pencarian data yang baik, yang memberikan kemudahan untuk menemukan informasi yang diinginkan. Sistem pencarian data yang umum digunakan saat ini adalah sistem pencarian data berbasiskan kata. Masukan dari pengguna yang berupa pertanyaan (query) dalam bahasa natural (natural language) akan digunakan oleh sistem pencari informasi untuk menemukan dokumen yang mengandung kata-kata pada query tersebut. Pencarian ini menyebabkan jumlah dokumen yang ditemukan umumnya terlalu banyak karena dokumendokumen yang hanya mengandung sebagian kata dalam query juga akan ikut ditemukan. Jika ditinjau dari isinya, baik query maupun dokumen hampir selalu memiliki keterkaitan dengan lokasi di dalamnya. Hal-hal tersebut mendasari pengembangan sistem pencarian data yang berbasiskan kepada data-data geografis. Sistem bertujuan untuk mengambil nama lokasi dalam query dan membatasi pencarian data pada dokumendokumen yang memiliki lokasi representatif sesuai dengan query saja. Sistem yang dikembangkan dalam penelitian ini dinamakan Sistem Perolehan Informasi Geografis (Geographic Information Retrieval - GIR). Sistem GIR dikembangkan dengan 2 metode utama, yaitu metode pemilihan satu lokasi representatif (metode SLR) dan metode pemilihan banyak lokasi representatif (metode BLR) dalam dokumen. Evaluasi dilakukan dengan membandingkan nilai average precision tiap metode dengan Sistem Bahasa Natural (Natural Language - NL). Hasil metode SLR mengalami penurunan sebesar 15.67% sedangkan hasil metode BLR mengalami penurunan sebesar 6.54%. Untuk memperbaiki hasil tersebut, diimplementasikan 2 metode proses perluasan lokasi yaitu perluasan lokasi ke tingkat lebih tinggi dan lebih rendah (metode QE_S); dan perluasan lokasi ke tingkat yang lebih tinggi, lebih rendah dan tingkat yang sama (metode QE_ETS). Hasil metode SLR dengan QE_S (SLR_QE_S) mengalami peningkatan sebesar 29.23% dan hasil metode SLR dengan QE_ETS (SLR_QE_ETS) mengalami peningkatan sebesar 30.57%. Saat perluasan lokasi diimplementasikan dengan metode BLR, hasil yang diperoleh justru menurun, yaitu hasil metode BLR dengan QE_S (BLR_QE_S) memiliki penurunan sebesar 22.47% dan metode BLR dengan QE_ETS (BLR_QE_ETS) memiliki penurunan sebesar 34.36%. Berdasarkan hasil tersebut, dapat disimpulkan bahwa sistem GIR yang memberikan hasil terbaik adalah metode SLR_QE_ETS sedangkan sistem GIR yang memberikan hasil terburuk adalah metode BLR_QE_ETS."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2006
S-Pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Alif Ahsanil Satria
"Pengenalan entitas bernama (named-entity recognition atau NER) adalah salah satu topik riset di bidang pemrosesan bahasa alami (natural language processing atau NLP). Pen- genalan entitas bernama merupakan langkah awal mengubah unstructured text menjadi structured text. Pengenalan entitas bernama berguna untuk mengerjakan NLP task yang lebih high-level seperti ekstraksi informasi (information extraction atau IE), Question Answering (QA), dan lain-lain. Penelitian ini memanfaatkan data berita dan wikipedia masing-masing sebanyak 200 dokumen yang digunakan untuk proses pengujian dan pelatihan. Penelitian ini mencoba mengeksplorasi entitas bernama baru yang tidak sebatas Person, Location, dan Organization. Named entity baru tersebut adalah Event, Product, Nationalities Or Religious or Political groups (NORP), Art, Time, Language, NonHuman or Fictional Character (NHFC), dan Miscellaneous. Jadi, penelitian ini menggunakan 11 entitas bernama. Dalam penelitian ini, permasalahan tersebut dipandang sebagai se- quence labelling. Penelitian ini mengusulkan penggunaan model conditional random field sebagai solusi permasalahan ini. Penelitian ini mengusulkan penggunaan fitur tambahan seperti kata sebelum, kata sesudah, kondisi huruf kapital di awal kata, dan lain-lain, serta word embedding. Penelitian ini menghasilkan performa dengan nilai F-measure terbaik sebesar 67.96% untuk data berita dan 67.09% untuk data wikipedia.

Named Entity Recognition or NER is one of research topics in Natural Language Pro- cessing (NLP) subject. NER is the first step to transform unstructured text to structured text. NER is used for doing more high-level NLP task such as Information Extraction (IE), Question Answering (QA), etc. This research uses news and wikipedia data with 200 documents of each, which is used for training and testing process. This research tries exploring new named entities in addition to Person, Location, and Organization. These named entities are Event, Product, Nationalities Or Religious or Political groups (NORP), Art, Time, Language, NonHuman or Fictional Character (NHFC), and Miscellaneous. Therefore, this research uses 11 named entities. This research views this problem as sequence labelling. This research proposes conditional random field model as the solution for this problem. This research proposes some features, for example additional features such as previous word, next word, initial capital letter condition, etc, and word embedding. This research results p1qerformance with the best F-Measure of 67.09% for wikipedia data and 67.96% for news data."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2020
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Septian Adiwibowo
"Perolehan informasi adalah salah satu bidang di ilmu komputer yang bertujuan untuk membantu menemukan informasi tertentu di antara banyak informasi yang tersedia. Sistem tanya jawab adalah satu topik pada bidang perolehan informasi, di mana informasi yang diperlukan direpresentasikan dalam suatu kueri berbentuk kalimat tanya dan menghasilkan jawaban singkat.
Penelitian ini menghasilkan sistem tanya jawab bilingual di mana pertanyaan diberikan dalam Bahasa Indonesia dan jawaban dihasilkan dalam Bahasa Inggris. Kueri yang digunakan adalah 190 pertanyaan Bahasa Indonesia dari topik tanya jawab Cross Language Information Retrieval (CLEF) 2006 yang terdiri dari pertanyaan fakta dan definisi. Koleksi dokumen yang digunakan adalah koleksi koran berbahasa Inggris: Glasgow Herald dan Los Angeles Times.
Untuk menemukan jawaban dari pertanyaan, pertama-tama sistem tanya jawab melakukan analisis terhadap teks pertanyaan untuk menentukan jenis jawaban yang diperlukan. Kemudian pertanyaan diterjemahkan ke Bahasa Inggris menggunakan ToggleText. Setelah itu pertanyaan yang telah berbahasa Inggris dijadikan kueri ke Lemur Toolkit untuk mendapatkan sekumpulan cuplikan dokumen dari koleksi dokumen yang relevan terhadap pertanyaan.
Bila pertanyaan bertipe fakta, maka semua entitas bernama dikumpulkan dari cuplikan-cuplikan dokumen tersebut untuk menjadi kandidat jawaban. Terdapat empat penilaian untuk memilih satu jawaban di antara para kandidat tersebut: frekuensi kemunculan kandidat jawaban yang diperoleh dari search engine; urutan dokumen yang diperoleh dari sistem perolehan informasi; jarak antarkata (Average Distance Weight); dan bobot kata kandidat jawaban.
Bila pertanyaan bertipe definisi maka perolehan jawaban dilakukan dengan mengekstrak frasa kata benda dari tiap cuplikan dokumen yang berisi kata-kata pertanyaan. Hasil evaluasi menunjukkan bahwa sistem tanya jawab ini berhasil mencapai ketepatan jawaban sebesar 14%."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2008
S-Pdf
UI - Skripsi Open  Universitas Indonesia Library
cover
Muhammad Ravi Shulthan Habibi
"Sistem tanya jawab merupakan salah satu tugas dalam domain natural language processing (NLP) yang sederhananya bertugas untuk menjawab pertanyaan sesuai konteks yang pengguna berikan ke sistem tanya jawab tersebut. Sistem tanya jawab berbahasa Indonesia sebenarnya sudah ada, namun masih memiliki performa yang terbilang kurang baik. Penelitian ini bereksperimen untuk mencoba meningkatkan performa dari sistem tanya jawab berbahasa Indonesia dengan memanfaatkan natural language inference (NLI). Eksperimen untuk meningkatkan sistem tanya jawab berbahasa Indonesia, penulis menggunakan dua metode, yaitu: intermediate-task transfer learning dan task recasting sebagai verifikator. Dengan metode intermediate-task transfer learning, performa sistem tanya jawab berbahasa Indonesia meningkat, hingga skor F1-nya naik sekitar 5.69 dibandingkan tanpa menggunakan pemanfaatan NLI sama sekali, dan berhasil mendapatkan skor F1 tertinggi sebesar 85.14, namun, peningkatan performa dengan metode intermediate-task transfer learning cenderung tidak signifikan, kecuali pada beberapa kasus khusus model tertentu. Sedangkan dengan metode task recasting sebagai verifikator dengan parameter tipe filtering dan tipe perubahan format kalimat, performa sistem tanya jawab berbahasa Indonesia cenderung menurun, penurunan performa ini bervariasi signifikansinya. Pada penelitian ini juga dilakukan analisis karakteristik pasangan konteks-pertanyaan-jawaban seperti apa yang bisa dijawab dengan lebih baik oleh sistem tanya jawab dengan memanfaatkan NLI, dan didapatkan kesimpulan bahwa: performa sistem tanya jawab meningkat dibandingkan hasil baseline-nya pada berbagai karakteristik, antara lain: pada tipe pertanyaan apa, dimana, kapan, siapa, bagaimana, dan lainnya; kemudian pada panjang konteks ≤ 100 dan 101 ≤ 150; lalu pada panjang pertanyaan ≤ 5 dan 6 ≤ 10; kemudian pada panjang jawaban golden truth ≤ 5 dan 6 ≤ 10; lalu pada keseluruhan answer type selain law dan time; terakhir pada reasoning type WM, SSR, dan MSR.

The question-answering system is one of the tasks within the domain of natural language processing (NLP) that, in simple terms, aims to answer questions based on the context provided by the user to the question-answering system. While there is an existing Indonesian question-answering system, its performance is considered somewhat inadequate. This research conducts experiments to improve the performance of the Indonesian question answering system by utilizing natural language inference (NLI). In order to enhance the Indonesian question-answering system, the author employs two methods: intermediate task transfer learning and task recasting as verifiers. Using the intermediate-task transfer learning method, the performance of the Indonesian question-answering system improves significantly, with an increase of approximately 5.69 in F1 score compared to not utilizing NLI at all, achieving the highest F1 score of 85.14. However, the performance improvement with the intermediate-task transfer learning method tends to be non-significant, except in certain specific cases and particular models. On the other hand, employing the task recasting method as a verifier with filtering parameter type and sentence format change type leads to a decline in the performance of the Indonesian question-answering system, with the significance of this performance decrease varying. Additionally, this research conducts an analysis on the characteristics of context-question-answer pairs that can be better answered by the question-answering system utilizing NLI. The findings conclude that the question-answering system’s performance improves compared to its baseline across various characteristics, including different question types such as what, where, when, who, how, and others. Furthermore, it improves with context lengths ≤ 100 and 101 ≤ 150, question lengths ≤ 5 and 6 ≤ 10, as well as answer lengths (golden truth) ≤ 5 and 6 ≤ 10. Additionally, it performs better in overall answer types excluding law and time, and lastly, in reasoning types WM, SSR, and MSR.
"
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Fakultas Teknik Universitas Indonesia, 1993
S38343
UI - Skripsi Membership  Universitas Indonesia Library
cover
Kevin Ahmad Faisal
"Grammatical Error Correction (GEC) merupakan salah satu topik yang menarik dalam penelitian Natural Language Processing (NLP). Sudah banyak penelitian mengenai GEC untuk bahasa universal seperti Inggris dan Cina, namun sedikit penelitian mengenai GEC untuk bahasa Indonesia. Pada penelitian ini penulis mengembangkan framework GEC untuk memperbaiki kesalahan 10 jenis Part of Speech (POS) bahasa Indonesia dengan arsitektur Gated Recurrent Unit (GRU). Dataset yang digunakan adalah Indonesian POS Tagged Corpus yang disusun oleh Ruli Manurung dari Universitas Indonesia. Hasil penelitian ini berhasil memberikan rata-rata Macro-Average F0.5 Score sebesar 0.4882 dan meningkatkan kecepatan prediksi sebesar 30.1%.

Grammatical Error Correction (GEC) is one of the exciting topics in Natural Language Processing (NLP) research. There have been many studies on GEC for universal languages such as English and Chinese, but little research on GEC for indonesian. In this study, the authors developed a GEC framework to correct ten Indonesian Part of Speech (POS) errors with the Gated Recurrent Unit (GRU) architecture. The dataset used is the Indonesian POS Tagged Corpus compiled by Ruli Manurung from the University of Indonesia. The results of this study succeeded in providing an average Macro-Average F0.5 Score of 0.4882 and increase prediction time by 30.1% "
Depok: Fakultas Teknik Universitas Indonesia, 2021
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Heninggar Septiantri
"Ambiguitas adalah masalah yang seringkali ditemui dalam pemrosesan bahasa alami oleh komputer. Word Sense Disambiguation (WSD) adalah upaya untuk menentukan makna yang tepat dari sebuah kata yang ambigu. Berbagai penelitian tentang WSD telah banyak dikerjakan, namun penelitian WSD untuk bahasa Indonesia belum banyak dilakukan. Ketersediaan korpus paralel berbahasa Inggris-Indonesia dan sumber pengetahuan bahasa berupa WordNet bahasa Inggris dan bahasa Indonesia dapat dimanfaatkan untuk menyediakan data pelatihan untuk WSD dengan metode Cross-Lingual WSD (CLWSD). Data pelatihan ini kemudian dijadikan input untuk klasifikasi dengan algoritma Naive Bayes, sehingga model klasifikasinya dapat digunakan untuk melakukan monolingual WSD untuk bahasa Indonesia.
Evaluasi klasifikasi menunjukkan rata-rata akurasi hasil klasifikasi lebih tinggi dari baseline. Penelitian ini juga menggunakan stemming dan stopwords removal untuk mengetahui bagaimana efeknya terhadap klasifikasi. Penggunaan stemming menaikkan rata-rata akurasi, sedangkan penerapan stopwords removal menurunkan rata-rata akurasi. Namun pada kata yang memiliki dua makna dalam konteks yang cukup jelas berbeda, stemming dan stopwords removal dapat menaikkan rata-rata akurasi.

Ambiguity is a problem we frequently face in natural languange processing. Word Sense Disambiguation (WSD) is an attempt to decide the correct sense of an ambiguous word. Various research in WSD have been conducted, but research in WSD for Indonesian Language is still rare to find. The availability of parallel corpora in English and Indonesian language and WordNet for both language can be used to provide training data for WSD with Cross-Lingual WSD (CLWSD) method. This training data can be used as input to the classification process using Naive Bayes classifier.
The model resulted by the classification process is then used to do monolingual WSD for Indonesian language. The whole process in this research results in higher accuracy compared to baseline. This research also includes the use of stemming and stopwords removal. The effect of stemming is increasing the average accuracy, whereas stopwords removal is decreasing average accuracy. Nevertheless, for ambiguous words that have distinct context of usage, the use of stemming and stopwords removal can increase average accuracy."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2013
T-Pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Ricky Nauvaldy Ruliputra
"ABSTRAK
Banyaknya pengguna internet di Indonesia berkontribusi pada potensi pertumbuhan Indonesia secara umum terutama dalam sisi ekonomi digital. Pesatnya pertumbuhan ini mendorong pemerintah untuk merencanakan revolusi industri 4.0. Pada praktisnya, landasan dalam membangun sistem yang diperlukan dalam revolusi industri 4.0 adalah teknologi artificial intelligence (AI). Inovasi dalam bidang AI banyak datang dari perusahaan startup. Meskipun pemanfaatan AI membawa banyak manfaat, 60% dari perusahaan belum memanfaatkan teknologi tersebut pada area fungsional seperti layanan chatbot, robot layanan pelanggan, otomasi proses robotik, monitoring media, dan pengamatan sosial. Celah ini perlu disikapi melihat bahwa 89% dari pengguna internet di Indonesia memanfaatkan layanan chatting, dan 87% lebih untuk media sosial. Pemanfaatan AI dapat dilakukan salah satu caranya adalah dengan menggunakan jasa perusahaan yang bergerak di bidang AI, namun pemetaan dari startup yang bergerak di bidang AI belum tersedia. Selain itu, dampak praktis dari penerapan AI di Indonesia perlu untuk dilakukan sebagai motivasi dan juga pengetahuan bagi pihak yang belum menerapkan AI sebagai bagian dari proses bisnis perusahaan. Penelitian ini melakukan pemetaan terhadap perusahaan startup di Indonesia yang bergerak di bidang AI, dan didapatkan 68 perusahaan startup yang terpetakan. Selain itu, penelitian ini juga melakukan identifikasi dampak dari penerapan AI bagi perusahaan dari perspektif startup penyedia layanan dengan melakukan wawancara kepada level-C dan manajer produk perusahaan penyedia layanan, dan mendapatkan bahwa dampak yang terjadi dapat dikategorikan ke dalam delapan aspek, yaitu motivasi, keuntungan, kepentingan, perubahan strategi, tantangan, kepuasan, kepercayaan, dan etika. Rekomendasi yang dapat diberikan kepada perusahaan klien terkait dengan penerapan NLP meliputi otomasi, kolaborasi, pengembangan berlanjut, humanisasi, melihat pasar, melihat peluang, tahu tujuan, siap secara teknis, dan berani mencoba.

ABSTRACT
The large number of internet users in Indonesia contributes to Indonesia's growth potential in general, especially in the digital economy. This rapid growth urged the government to plan for the industrial 4.0 revolution. In practice, the basis for building industrial 4.0 system is artificial intelligence (AI) technology. Innovations in the field of AI come from many startup companies. Despite of many benefits obtained from the use of AI, 60% of the companies have not utilized the technology in functional areas such as chatbot services, customer service robots, automation of robotic processes, media monitoring, and social observation. This gap needs to be addressed considering that more than 89% of internet users in Indonesia utilize chat services, and more than 87% of them use it for social media. The use of AI can be done one way is to use the services of companies engaged in AI. However, startup mapping from AI-based startups is not yet available. In addition, the practical impact of implementing AI in Indonesia needs to be done as motivation and knowledge for those who have not implemented AI as part of the company's business processes. This research mapped the startups in Indonesia who are engaged in AI, and obtained 68 mapped startup companies. In addition, this study also evaluates the implementation of AI for companies from the perspective of the implementor by conducting interviews with C-Levels and product managers of the service provider, and found that the impacts can be categorized into eight categories, namely motivation, profit, interest, change in strategy, competition, satisfaction, trust, and ethics. Recommendations is given to companies related to NLP related to automation, collaboration, accepted development, humanization, looking at the market, seeing opportunities, knowing goals, preparing technically, and dare to try.
"
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2019
TA-Pdf
UI - Tugas Akhir  Universitas Indonesia Library
cover
Mochammad Shaffa Prawiranegara
"Skripsi ini bertujuan untuk mengembangkan model klasifikasi teks berbasis Convolutional Neural Network (CNN) dan BERT Language Model untuk mendeteksi SQL Injection pada Apache Web Server. Skripsi ini melibatkan pengumpulan dan pemrosesan dataset, literasi teori dasar, perancangan sistem, implementasi sistem, dan evaluasi kinerja model deep learning. Dengan menggunakan dataset publik dari Kaggle, model yang dikembangkan berhasil mendeteksi SQL Injection dengan akurasi yang tinggi. Hasil eksperimen menunjukkan bahwa model BERT memberikan performa yang lebih baik dibandingkan dengan CNN dalam hal accuracy, precision, recall, dan F1-score. Implementasi teknik deep learning pada sistem SQL Injection Detection juga mempermudah log file analysis pada Apache Web Server. Kesimpulan dari skripsi ini adalah berhasilnya pengembangan sistem SQL Injection Detection berbasis Convolutional Neural Network (CNN) dan BERT Language Model dengan akurasi masing-masing sebesar 95.99% dan 99.84%.

This undergraduate thesis aims to develop a text classification model based on Convolutional Neural Network (CNN) and BERT Language Model to detect SQL Injection on the Apache Web Server. The research involves data collection and preprocessing, basic theory literature review, system design, system implementation, and evaluation of deep learning model performance. By using a public dataset from Kaggle, the developed model successfully detects SQL Injection with high accuracy. The experimental results show that the BERT model outperforms CNN in terms of accuracy, precision, recall, and F1-score. The implementation of deep learning techniques in the SQL Injection Detection system also simplifies log file analysis on the Apache Web Server. The conclusion of this undergraduate thesis is the successful development of an SQL Injection detection system based on Convolutional Neural Network (CNN) and BERT Language Model with accuracies of 95.99% and 99.84% respectively."
Depok: Fakultas Teknik Universitas Indonesia, 2024
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
<<   1 2 3 4 5 6 7 8 9 10   >>