Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 79448 dokumen yang sesuai dengan query
cover
Henry Artajaya
"Metode spektral Laplacian Eigenmaps Embedding (LEM) dapat memelihara kemiripan dokumen dengan baik dibandingkan dengan metode reduksi dimensi lainnya. Hal ini terlihat dari unjuk kerja sistem berbasis GLSALEM yang lebih baik jika dibandingkan dengan sistem lainnya pada percobaan. Peningkatan unjuk kerja tidak hanya ditunjukkan dengan berkurangnya rata-rata selisih nilai yang dihasilkan oleh sistem dengan nilai yang dihasilkan oleh human rater tetapi juga jumlah percobaan dimana GLSA-LEM menghasilkan nilai yang paling mendekati dengan nilai yang dihasilkan oleh human rater. Kekurangan dari implementasi metode LEM adalah bahwa LEM hanya dapat diterapkan pada matriks jawaban referensi dan mahasiswa dengan dimensi yang lebih besar atau sama dengan enam. Oleh karena itu jawaban referensi dan jawaban mahasiswa yang terlalu pendek tidak akan dapat diproses oleh LEM. Hal ini dapat ditanggulangi dengan mengimplementasikan batas minimal kata jawab pada sistem berbasis GLSA-LEM sehingga semua jawaban dapat diproses oleh LEM. Pada percobaan ini didapatkan rata-rata selisih antara nilai yang dihasilkan oleh sistem dengan nilai yang dihasilkan oleh human rater pada sistem berbasis LSA adalah 44,49; pada sistem berbasis GLSA adalah 23,41; dan pada sistem berbasis GLSA-LEM adalah 11,67.
Hasil tersebut menunjukkan bahwa GLSA-LEM paling unggul karena menghasilkan rata-rata selisih yang paling kecil antara nilai yang dihasilkan oleh sistem dengan nilai yang dihasilkan oleh human rater. Hal ini didukung oleh jumlah percobaan dimana sistem berbasis GLSA-LEM bekerja paling baik yakni dari sejumlah 245 percobaan yang dapat diterapkan LEM didapatkan bahwa pada 82 percobaan sistem GLSA-LEM menghasilkan selisih nilai yang paling kecil dibandingkan dengan sistem GLSA yang unggul pada 40 percobaan dan sistem LSA yang unggul pada 10 percobaan saja. Dengan demikian hipotesis yang diajukan terbukti benar bahwa implementasi LEM pada sistem GLSA akan meningkatkan akurasi sistem. Selisih nilai yang lebih kecil menandakan sistem dapat menghasilkan nilai yang lebih mendekati nilai yang dihasilkan oleh human rater. Hal ini sesuai dengan tujuan dari sistem penilai esai otomatis yang diciptakan untuk menggantikan kerja human rater dimana nilai yang dihasilkan harus dapat mendekati nilai yang dihasilkan oleh human rater. Rata-rata waktu proses LSA adalah 0,164 detik, GLSA sebesar 0,521 detik, dan GLSA-LEM sebesar 4,982 detik.

Laplacian Eigenmaps Embedding preserve semantic proximity better than other dimension reduction methods. GLSA performance may be improved further by implementing LEM. Experiment conducted has shown that GLSA-LEM based system has outperform on this experiment. Performance improvement not only shown from average delta between the grades calculated using the system and the grades resulted from human rater but also the number of the tests that outperformed by GLSA-LEM. The disadvantage of LEM implementation is that LEM only can be applied to answer matrices with minimum dimension of six. Therefore answers that are too short may not be processed using LEM. This can be mitigated by implementing minimum threshold to the answers so it can't be submitted if less than required length. This experiment show that LSA average delta between grades resulted from the system and grades resulted from human rater is 44,49; GLSA?s average delta is 23,41 and GLSA-LEM?s average delta is 11,67.
These results show GLSA-LEM is the best because generate grades with the least average delta between the grades calculated using the system and the grades resulted from human rater. These results also supported by the number of essays from total of 245 essays that can be applied GLSA-LEM graded best with least delta by GLSA-LEM that is 82; compared to GLSA that is 40; and LSA that is 10. Therefore the hypotesis is proven to be correct that LEM implementation on GLSA based system improves system's accuracy. Least delta indicates system generate better grades that is closer to human rater. These results is in accordance with the purpose of automated essay grading system that created to replace human raters in which the grades resulted by the system should be close to the grade generated by human raters. LSA's average processing time is 0,164 seconds, GLSA's is 0,521 seconds, and GLSA-LEM?s is 4,982 seconds.
"
Depok: Fakultas Teknik Universitas Indonesia, 2013
T35051
UI - Tesis Membership  Universitas Indonesia Library
cover
Brian Prama Krisnanda
"Sistem penilaian yang dilakukan oleh penilai manusia untuk menilai jawaban essay dalam jumlah besar dirasakan kurang efisien. Hal ini disebabkan karena penilai manusia memiliki keterbatasan fisik yang tidak dapat dihindari. Jika hanya menggunakan satu orang penilai, memang obyektifitas terjaga, namun waktu pemeriksaan menjadi lama. Jika menggunakan banyak orang penilai, waktu dalam memeriksa menjadi cepat, namun obyektifitas tidak terjaga. Oleh karena itu, untuk meningkatkan efisiensi periu dibuat suatu sistem penilaian yang pemeriksaannya cepat dan obyektifitias tetap terjaga.
Dalam skripsi ini dilakukan perancangan dan implementasi software penilaian essay otomatis dengan menggunakan salah satu metode penilaian essay otomatis yaitu Latent Semantic Analysis (LSA). Metode ini mengonversi kalimat ke dalam bentuk matriks untuk kemudian dilakukan perhitungan. Perhitungan dilakukan dengan menggunakan Singular Value Decomposition (SVD) dimana matriks didekomposisi menjadi tiga komponen matriks, yaitu dua matriks orthogonal dan satu matriks diagonal singular. Kemudian dilakukan reduksi terhadap matriks diagonal singular-nya sehingga menjadi berdimensi dua, dan transpose matriks untuk salah satu matriks orthogonalnya. Setelah itu dilakukan rekonstruksi matriks awal dengan cara mengalikan kembali tiga komponen matriks yang sudah diolah tersebut. Proses penilaian diambil dari perbandingan normalisasi Frobenius antara matriks jawaban dengan matriks referensi yang sudah direkonstruksi.
Pada perancangannya, sistem penilaian essay otomatis ini berupa algoritma yang terbagi menjadi beberapa bagian, diantaranya yaitu program utama, sub program, dan bagian program terperinci diantaranya program konversi jawaban ke matriks, dan program perhitungan SVD. Agar dapat dikembangkan sehingga dapat digunakan melalui jaringan internet, program ini didesain dengan menggunakan aplikasi web. Implementasi dari sistem dilakukan pada sebuah komputer sekaligus merupakan server dan client. Agar sistem dapat berjalan dengan baik, maka diinstal beberapa program diantaranya Apache Server, MySQL Server, PHP, dan Matlab.
Untuk menguji performa dari sistem aplikasi ini dilakukan beberapa pengujian. Pengujian dilakukan dengan tujuan untuk mengetahui bagaimana korelasi antara nilai jawaban mahasiswa yang dihasilkan dengan menggunakan metode LSA, dengan nilai jawaban mahasiswa yang dihasilkan oleh human rater. Dari pengujian didapatkan nilai korelasi antara penilaian otomatis yang menggunakan metode LSA dengan penilaian yang dilakukan oleh human rater ialah sebesar 0,86 - 0,96."
Depok: Fakultas Teknik Universitas Indonesia, 2005
S39970
UI - Skripsi Membership  Universitas Indonesia Library
cover
Dewi
"Tesis ini membahas tentang penerapan semantic role labeling untuk kalimat Bahasa Indonesia dengan metode Support Vector Machine / SVM. Dataset yang digunakan dalam penelitian ini yaitu kalimat-kalimat yang diambil dari FrameNet yang diterjemahkan dengan bantuan Google Translate. Data training menggunakan 100 kalimat yang diambil dari FrameNet, untuk data testing menggunakan 100 kalimat yang diambil dari FrameNet ditambah dengan 100 kalimat yang dibuat oleh penutur Bahasa Indonesia.
Feature-feature yang digunakan dalam penelitian ini adalah headword, POS tag, preposition, predikat, voice, position, frame dan semantic class. Untuk penerapan klasifikasi semantic role labeling dengan metode SVM digunakan tools WEKA. Percobaan yang dilakukan dalam penelitian ini menggunakan kombinasi feature yang berbeda. Hasil yang baik dengan precision 61,6% dan recall 66,8% diperoleh dari kombinasi feature headword, POS tag, preposition, position, frame dan semantic class.

This thesis discusses about the implementation of semantic role labeling for Indonesian sentences using Support Vector Machine / SVM. Dataset which use in this research are the sentences that taken from FrameNet which translated using Google Translate. Training data uses 100 sentences from FrameNet, for testing data uses 100 senteces from FrameNet and added 100 sentences that made by Indonesian speakers.
The features that used in this research are headword, POS tag, preposition, predicate, voice, position, frames and semantic class. For the implementation of classification semantic role labeling with SVM methods is used WEKA tools. The experiments in this research use the combination of the different features. The good result with precision 61,6% and recall 66,8%,are gotten from combination feature between headword, POS tag, preposition, position, frame and semantic class.
"
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2013
T-Pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Hanif Fatrial
"Penelitian tugas akhir sarjana di Departemen Matematika Universitas Indonesia dapat berupa aplikasi matematika dalam kehidupan sehari-hari. Salah satu aplikasinya dapat diterapkan pada pencarian topik pada portal berita Indonesia online secara otomatis dengan bantuan mesin. Dengan transformasi kata-kata pada artikel portal berita Indonesia online kedalam bentuk matriks, dapat dilakukan proses Latent Semantic Analysis (LSA) dengan menggunakan metode Nonegative Matrix Factorization dalam mengekstraksi kata-kata pendukung topik dari sekumpulan dokumen. Pada skripsi ini akan dibahas mengenai implementasi Latent Semantic Analysis dengan menggunakan Nonegative Matrix Factorization (NMF) dalam ekstraksi kata-kata pendukung topik sehingga kata-kata tersebut dapat menginterpretasikan topik utama harian dari portal berita Indonesia online.

There are a wide range of fields in mathematics that can be used as a final research in the Department of Mathematics, University of Indonesia, including the applications of mathematics for daily life. One of the applications can be applied to searching topic in Indonesia online news portal automatically with machines. Latent Semantic Analysis (LSA) using Matrix Factorization Nonegative method can extract the words from a collection of documents which supporting the topic. This skripsi will be discussed on the implementation of Latent Semantic Analysis using Nonegative Matrix Factorization in extraction for the words wich support topics that words can be interpretation of a topic Indonesian daily online news portal."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2012
S42926
UI - Skripsi Open  Universitas Indonesia Library
cover
Dandun Kusuma Yudha
"Skripsi ini membahas tentang perbandingan dua algoritma untuk sistem penilaian esai otomatis (Simple-O), yaitu generalized latent semantic analysis (GLSA) laplacian eigenmaps embedding (LEM) dan hybrid indexing. Kedua algoritma tersebut dibandingkan untuk mengetahui cara kerja kedua algoritma tersebut, kecepatan proses, dan hasil penilaiannya. Perbandingan cara kerja dilakukan dengan membandingkan pseudocode dari masing-masing algoritma. Kecepatan proses dihitung untuk mengetahui algoritma yang lebih cepat dalam menilai esai.
Algoritma GLSA hybrid indexing merupakan pengembangan dari algoritma LEM. Perbedaan mendasar dari kedua algoritma tersebut adalah pada perlakuan kata benda dan kata-kata selain kata benda. Penelitian ini menggunakan sampel delapan soal yang dikerjakan oleh 48 mahasiswa (384 data). Dari hasil penelitian, GLSA LEM memiliki total waktu proses 46.51454 detik lebih cepat dari GLSA hybrid indexing. Sedangkan rata-rata waktu proses GLSA LEM dan GLSA hybrid indexing untuk menilai satu jawaban adalah 6-6.6 detik. Hasil penilaian dari GLSA LEM dan GLSA hybrid indexing memiliki tingkat kemiripan tertinggi 95,83% dan terendah 16,67%. Dari percobaan sebanyak delapan soal, lima diantaranya memiliki tingkat kemiripan lebih dari 83,33%.

This thesis discusses the comparison between two algorithms which used in automated essay grading system (Simple-O). The two algorithms are generalized latent semantic analysis (GLSA) embedding laplacian eigenmaps (LEM) and hybrid indexing. Both algorithms are compared to determine how the algorithms works, processing time, and the scores. Pseudocode can be used to determine how the algorithms are working, The processing time is calculated to find out which algorithm is faster in assessing essays.
GLSA hybrid indexing algorithm is a development from GLSA LEM. The fundamental difference of the two algorithms is in the treatment of a subset of nouns and words other than nouns. This research using samples of eight questions which filled by 48 students (384 data). From the research, GLSA LEM has a total processing time of 46.51454 seconds faster than GLSA hybrid indexing. While the average processing time GLSA LEM and hybrid GLSA indexing to grade the answer is 6 to 6.6 seconds. GLSA LEM and GLSA hybrid indexing grades have the highest similarity level of 95.83% and 16.67% for the lowest similarity level. From the eight questions, five questions have similarity level more than 83.33%.
"
Depok: Fakultas Teknik Universitas Indonesia, 2014
S53110
UI - Skripsi Membership  Universitas Indonesia Library
cover
"This series publishes monographs, texts, and edited volumes within the
interdisciplinary field of computational linguistics. It represents the range of
topics of concern to the scholars working in this increasingly important field,
whether their background is in formal linguistics, psycholinguistics, cognitive
psychology or artificial intelligence."
Cambridge, UK: Cambridge University Press, 1990
e20393631
eBooks  Universitas Indonesia Library
cover
Henry Artajaya
"Representasi dokumen sebagai vektor GLSA pada beberapa percobaan seperti uji sinonim, klasifikasi dokumen, dan clustering terbukti mampu menghasilkan tingkat akurasi yang lebih baik daripada sistem sejenis yang berbasis algoritma LSA akan tetapi GLSA belum pernah diujikan pada sistem penilai esay otomatis. Percobaan ini meneliti pengaruh implementasi GLSA pada sistem penilai esay otomatis dan perbandingan unjuk kerjanya dengan sistem penilai esay otomatis berbasis LSA. Unjuk kerja sistem penilai esai otomatis berbasis GLSA lebih unggul daripada sistem berbasis LSA. Dari 60 kali pengujian, GLSA menghasilkan nilai yang lebih akurat pada 47 kali pengujian atau 78,3% total pengujian sedangkan LSA hanya unggul pada 9 kali pengujian atau 15% total pengujian dan sisanya 4 kali pengujian atau 6,7% total pengujian menghasilkan nilai dengan tingkat akurasi yang sama. Nilai Pearson Product Moment Correlation pada percobaan menggunakan sistem LSA 0.57775-0.85868 sedangkan pada GLSA sebesar 0.73335-0.76971. Hal ini mengindikasikan bahwa sistem berbasis LSA dan GLSA yang diujikan layak pakai karena memiliki performa yang sama baiknya dengan performa yang dilakukan oleh manusia. Ditinjau dari waktu proses yang dibutuhkan, LSA unggul pada soal 1 dan 2 dengan rataan 0,07466 detik dan 0,2935 detik sedangkan pada GLSA rataan waktu proses soal 1 dan 2 sebesar 1,32329 detik dan 17,3641 detik. Waktu proses yang dibutuhkan sistem penilai esai otomatis berbasis GLSA lebih lama dibandingkan dengan LSA. Akan tetapi karena GLSA menunjukkan kinerja yang amat baik, amat dipercaya bahwa manfaatnya lebih besar daripada biaya komputasi.

Document representation as GLSA vectors were shown to improve performance on different tasks such as synonymy test, document classification, and clustering compared to LSA based systems, however GLSA performance has never been tested on automated essay grading system. This experiment examines the effect of GLSA implementation on automated essay grading system and evaluates its performance compared to LSA based system. GLSA performance was shown to outperform LSA based automated essay grading system. From 60 samples, GLSA outperform LSA 47 times (78,3%), LSA outperform GLSA 9 times (15%), and 4 times (6,7%) resulted the same score accuracy. Pearson Product Moment Correlation Value resulted from the experiment using LSA based system is 0.57775-0.85868 and 0.73335-0.76971 for GLSA based system. This result incidates LSA and GLSA based system used on this experiment are ready to be used as human rater replacement because both of the system deliver similar performance with human rater. Processing time of LSA based system is faster with average processing time consecutively 0,07466 second and 0,2935 second compared to GLSA consecutively 1,32329 second and 17,3641 second. GLSA requires more processing time than LSA based system because GLSA based system has more calculation steps than LSA. However GLSA showed better performance, therefore it's believed that its benefits outweigh the computational cost."
Depok: Fakultas Teknik Universitas Indonesia, 2012
S42481
UI - Skripsi Open  Universitas Indonesia Library
cover
Vanessa Deviani
"Simple-O merupakan sistem penilaian esai otomatis yang menerapkan algoritma Latent Semantic Analysis (LSA). Simple-O dalam penilaian hasilnya menggunakan metode pembobotan. Sebagai sistem penilaian esai otomatis, tentu saja Simple-O diharapkan agar hasil penilaiannya mirip dengan hasil penilaian secara manual (Human Raters). Metode pembobotan awal yang diterapkan pada Simple-O masih memiliki beberapa kekurangan, oleh karena itu pada skripsi kali ini akan diimplementasikan empat belas metode pembobotan (kombinasi tujuh pembobotan lokal dan dua pembobotan global) pada Simple-O dan hasilnya akan dilakukan analisa agar dapat ditentukan metode pembobotan yang mana yang paling cocok diterapkan di Simple-O. Metode pembobotan biner tanpa bobot lokal sejauh ini memiliki kemiripan yang paling tinggi dengan human raters dengan selisih perbedaan dengan human raters 9.255 poin.

Simple-O is an automated essay grading system that complies the Latent Semantic Analysis (LSA) algorithm. Simple-O uses word weighting method in the assessment of the results. As an automated essay grading system, the assessment system in Simple-O is supposedly similar with the manual assessment (human raters). The original Simple-O weighting method still have some flaws, therefore, on this thesis will be implemented fourteen word weighting methods (the combination of seven local weightings and two global weightings) and all of the results will be analyzed to determine which weighting method have the best result to be implemented in Simple-O. Binary weighting method so far have the highest similarity with the manual assessment with the differences by 9.255 point. "
Depok: Fakultas Teknik Universitas Indonesia, 2011
S797
UI - Skripsi Open  Universitas Indonesia Library
cover
"In this particularly well written volume Graeme Hirst presents a theoretically motivated foundation for semantic interpretation (conceptual analysis) by computer, and shows how this framework facilitates the resolution of both lexical and syntactic ambiguities.
"
Cambridge, UK: Cambridge University Press, 1987
e20393629
eBooks  Universitas Indonesia Library
cover
Weldaline Zafira Winarto
"ABSTRAK
Departemen Teknik Elektro Fakultas Teknik Universitas Indonesia telah mengembangkan sistem penilaian esai otomatis (SIMPLE-O) untuk ujian bahasa Jepang. Skripsi kali ini akan membahas pengembangan SIMPLE-O dalam
mengoreksi ujian bahasa Jepang dengan menggunakan metode N-Gram dan Latent Semantic Analysis (LSA) dan bahasa pemrograman Python dengan tujuan untuk mencapai nilai akurasi yang maksimal. N-Gram digunakan untuk mengoreksi pola kalimat data yang diuji dengan referensi, serta LSA dan Frobenius Norm untuk pemrosesan teks dan pemeriksaan kesamaan teks. Dari pengujian yang telah dilakukan, SIMPLE-O dengan N-Gram dapat mencapai rata-rata akurasi sebesar88,09%.

ABSTRACT
Department of Electrical Engineering, Faculty of Engineering, University of Indonesia has developed a system to grade Japanese examination essay automatically. This thesis will discuss about the development of SIMPLE-O in grading Japanese examination essays using N-Gram and Latent Semantic Analysis (LSA) using Python programming languageto reach the maximum accuracy level. N-Gram is used to score the answer based on the words and the pattern of the sentence of key answer. LSA and Frobenius Norm are used toprocess the text and to check the similarity of both text. From the test that has been done, SIMPLE-O using N-GramandLSAis able to obtain an average rate of accuracy of 88,09%."
2019
S-Pdf
UI - Skripsi Membership  Universitas Indonesia Library
<<   1 2 3 4 5 6 7 8 9 10   >>