Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 94513 dokumen yang sesuai dengan query
cover
Boma Anantasatya Adhi
"SIMPLE-O merupakan sistem penilaian esaiotomatis berbasis latent semantic analysis (LSA) yang bergantungpada Java Matrix untuk melakukan perhitungan singular value decomposition (SVD) dalam melakukan penilaian. Pada skripsi ini akan dibahas mengenai implementasi proses SVD pada platform general purposes graphic processing unit (GPGPU)pada SIMPLE-O yang lebih cepat daripada algoritma sekuensial biasa yang ada pada JAMA.GPGPU merupakan suatu platform komputasi paralel performa tinggi yang berbasiskan Graphic Processing Unit komersial biasa.
Implementasi akan dilakukan dengan cara memindahkan proses eksekusi SVD pada SIMPLE-O ke modul eksternal yang ditulis dalam bahasa Cdengan Application Programming Interface (API) untuk GPGPU seperti CUDA, CULA tools, danOpenCL. Performa diukur dengan peningkatan kecepatan waktu kalkulasi SVD dan jumlah kalkulasi yang dapat dilakukan setiap detiknya. Implementasi GPGPU meningkatkan performa pada matriks ukuran 512x512 berkisar antara lebih dari 200 kali lipat (CULA tools) hingga 4200 kali lipat (OpenCL).

Simple-O is an automated essay grading system based on latent semantic analysis (LSA) which depends on Java Matrix (JAMA) for singular value decomposition (SVD) calculation.This paper will present an implementation of SVD calculation on General Purpose Graphic Processing Unit (GPGPU) platformin SIMPLE-O, which is essentially faster and more efficient than standard sequential algorithm found in JAMA. GPGPU is a high performance parallel computing platform based on commercially available 3D Graphic Processing Unit.
Implementation will be done by altering the SVD execution unit to pipe an external module written in C with GPGPU Application Programming Interface (API) such as CUDA, CULA tools and OpenCL. Performance will be measured in terms of SVD calculation time improvements and numbers of calculation per second. Over 200 times (CULA tools) up to 4200 times (OpenCL) performance gain were measured in 512 x 512 matrix.
"
Depok: Fakultas Teknik Universitas Indonesia, 2010
S51220
UI - Skripsi Open  Universitas Indonesia Library
cover
Boma Anantasatya Adhi
"SIMPLE-O merupakan sistem penilaian esai otomatis berbasis LSA. Tesis ini membahas tentang rancang bangun arsitektur parallel yang mungkin diaplikasikan pada SIMPLE-O. Paralelisasi SIMPLE-O akan dilakukan dalam 2 tingkat, tingkat pertama dengan membuat cluster yang hemat energi, dan tingkat kedua adalah paralelisasi algoritma SVD. Paralelisasi algoritma SVD akan dilakukan pada 3 platform, yaitu: GPGPU, APU, CPU, dan dengan 3 jenis algoritma, algoritma numerik Golub-Kahan-Reinsch, algoritma eksak Hestenes-Jacobi dan prediksi nilai singular berbasis norm. Algoritma pendekatan berbasis norm pada platform GPU mampu meningkatkan kecepatan 5.8 kali lipat dari sistem awal dengan mempertahankan korelasi hasil penilaian hingga 0.928.

SIMPLE-O is an LSA based automatic essay grader. This tesis proposes several parallel computing architecture for SIMPLE-O. SIMPLE-O parallelization will be done in 2 level. First level is done by building a low power cluster and the second level is at the SVD algorithm level. Parallel SVD architecture will be implemented in 3 platform: GPGPU, APU, CPU with 3 algorithm, numeric based Golub-Kahan-Reinsch, Hestenes-Jacobi exact algorithm and singular value prediction based on norm. The proposed algorithm, Norm Based Approximation gains up to 5.8 times calculation speed of the original system while maintaining 0.928 correlation against reference algorithm."
Depok: Fakultas Teknik Universitas Indonesia, 2013
T34975
UI - Tesis Membership  Universitas Indonesia Library
cover
Laskito Harmantyo
"Aplikasi information retrieval dalam wujud mesin pencari atau search engine sudah dikenal luas oleh pengguna internet. Informasi bisa didapatkan dengan melakukan pencocokan istilah dalam dokumen dengan istilah yang ingin dicari. Kata yang dimasukkan dalam query dicari kehadirannya dalam sejumlah dokumen. Pencocokan ini merupakan pencocokan secara harfiah atau yang dikenal dengan lexical matching. Metode pencocokan secara harfiah ini dapat memberikan hasil yang kurang akurat karena pencocokan harfiah hanya melihat kesamaan bentuk kata atau istilah saja tanpa melihat makna dan korelasi istilah tersebut. Latent Semantic Indexing (LSI) mengatasi masalah tersebut dengan menggunakan pendaftaran dan penyusunan istilah secara statistik. Struktur laten dituangkan dan digambarkan secara matematis dalam elemen-elemen matriks yang terukur. Teknik Singular Value Decomposition (SVD) digunakan untuk melakukan estimasi struktur penggunaan kata dalam dokumen-dokumen. SVD juga dipakai untuk meminimalisasi perhitungan dan meningkatkan performa information retrieval. Pembobotan pada dokumen dan query ditambahkan untuk meningkatkan performa relevansi perolehan dokumen. Implementasi LSI dengan SVD dilakukan secara web-based, dengan koleksi dokumen berupa judul dan abstrak dari sejumlah skripsi mahasiswa teknik elektro. Hasil ujicoba memberikan kesimpulan bahwa dari seluruh rangkaian proses perolehan informasi, 95% waktunya dihabiskan untuk kalkulasi SVD. Selain itu, pemakaian fitur klasifikasi dapat mempercepat proses sampai 64 kali waktu tanpa klasifikasi. Berbagai metode pembobotan juga terbukti memberikan hasil perolehan dokumen yang berbeda pada query yang sama, dengan tingkat relevansi yang berbeda. Berdasarkan perhitungan Non Interpolated Average Precision, skema pembobotan frekuensi kata untuk dokumen dan query merupakan skema yang paling baik dalam hal presisi.

Information retrieval in form like search engine has already known by a lot of internet users. Information can be obtained by doing terms matching. Terms in documents are matched dan compared by terms given by users in query. Such method like this known as lexical matching. This method can give inaccurate results because the mechanism is only matching and seeing the similarities of words without giving any concern of meaning or relevancy. Latent Semantic Indexing (LSI) try to compensate this problem by doing indexing and arranging terms in statistical manner. Latent structures are developed in mathematical way as values in matrices elements. Singular Value Decomposition (SVD) is used to estimating the structure of words in documents. In addition, SVD minimalize the matrices calculation and improves the performance of information retrieval application. Weighting scheme to documents and query added to improves the performance of relevancy retrieval. LSI with SVD implemented in web based way, with title and abstract from student of electrical engineering papers as document corpus. The experiment gives a fact that from all LSI process time, for about 95% is spent for SVD calculation. Classification feature of this application gives an acceleration up to 64 times of common process time (without classification). The number of user agent accessing the application gives a slow effect of processing time in linear manner. The great number of user, the longer process time. Various kind of weighting scheme makes a different documents retrieval result at the same queries. Calculation of Non-Interpolated Average Precision stated that word frequency weighting scheme for both document and query is the best in precision performance."
Depok: Fakultas Teknik Universitas Indonesia, 2007
S40368
UI - Skripsi Membership  Universitas Indonesia Library
cover
Deo Lahara
"ABSTRAK
Pendeteksian topik topic detection adalah suatu proses yang digunakan untuk menganalisis kata-kata pada suatu koleksi data tekstual untuk menentukan topik-topik yang ada pada koleksi tersebut. Pendeteksian topik pada dokumen yang sangat besar sulit dilakukan secara manual sehingga dibutuhkan metode otomatis. Masalah pendeteksian topik secara otomatis dikenal dengan istilah topic detection and tracking TDT . Suatu metode alternatif TDT untuk masalah pendeteksian topik adalah fuzzy C-means FCM. Pada metode fuzzy C-means, umumnya pusat cluster ditentukan secara acak atau inisialisasi random. Namun, terkait dengan masalah dimensi yang tinggi pada inisialisasi random akan menyebabkan algoritma konvergen ke satu pusat. Sehingga, topik-topik yang dihasilkan antara satu dengan yang lainnya sama. Untuk itu, diperlukan metode untuk membuat inisialisasi yang dapat mengatasi masalah tersebut. Salah satu metode inisialisasi yang akan dikembangkan pada penelitian ini adalah metode Singular Value Decomposition SVD . Hasil simulasi menunjukan bahwa metode inisialisasi dapat mengatasi permasalahan fuzzy C-means pada data dimensi yang tinggi sehingga topik-topik yang dihasilkan tidak sama terhadap satu sama lain.

ABSTRAK
Topic detection is a process used to analyze words in a collection of textual data to determine the topics of the collection. Detecting topics on a very large document is hardly done manually so that automatic methods are needed. Automatic method to detect topics in textual documents is known as Topic Detection and Tracking TDT . An alternative method of TDT for topic detection problems is fuzzy C means FCM . In the FCM method, generally the cluster center is random initialization. However, related to the problem of high dimensional random initialization causes the algorithm to converge to one center, it means that all generated topics are similar. For that, a method is needed to create an initialization that resolves the problem. One of the initialization methods that will be developed in this research is Singular Value Decomposition SVD method. The simulation results show that the SVD initialization method can overcome the fuzzy C means problem in the high dimension data so that the resulting topics are not equal to each other. "
2017
S69378
UI - Skripsi Membership  Universitas Indonesia Library
cover
Adi Wahyu Pribadi
"Setiap dokumen pada koleksi menjelaskan suatu konsep berdasarkan topik yang dibahasnya Konsep tersebut didapat dengan teknik pengindeksan konseptual atau Latenl Semantic Indexing. Teknik tersebut mengakibatkan jumlah dokumen yang terambil lebih banyak karena adanya perluasan kueri (c/uery expansion) secara konseptual. Seiring berjalannya waktu, teijadi penambahan dokumen sehingga indeks menjadi tidak lengkap. Digunakan metode penambahan dokumen secara dinamis pada indeks konseptual yang ada dengan metode folding-in dan SVD- Update. Ujicoba dilakukan pada kumpulan hasil penelitian lembaga BATAN sebanyak 1162 abstrak dokumen. Berdasarkan ujicoba, pada model pengindeksan konseptual dokumen yang terambil lebih banyak yaitu rata-rata 12,63% dibandingkan dengan penggunaan pengindeksan biasa sebanyak 10,37%, Pada ujicoba penambahan dokumen, terjadi penurunan kinerja yang tidak signifikan yaitu 0,5% hingga 2% saja.

Each document in the collection describes a concept based on particular topics. The concept is obtained with the technique of conceptual or latent Semantic Indexing. The technique resulting in the number of documents fetched more because of the conceptual queiy expansion. Over time, Ihere was the addition of documents so that the indexes are not complete. Using Folding-in and SVD- Update to update the index of document collection conceptually. We use BATAN research collection of 1162 document abstracts. Based on testing, on the conceptual model of the document fetched more with the average of 12.63% compared with the normal indexing of 10.37%. On testing of adding documents, a decline of performance that is not significant, namely 0.5% to 2% only."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2009
T25887
UI - Tesis Open  Universitas Indonesia Library
cover
Naufal Khairil Imami
"ABSTRAK
Deteksi topik adalah proses yang digunakan untuk menganalisis kata-kata dalam kumpulan data tekstual untuk ditentukan topik dalam koleksi, bagaimana mereka saling berhubungan, dan bagaimana topik ini berubah dari waktu ke waktu. Salah satu metode yang digunakan untuk mendeteksi topik adalah Nonnegative Matrix
Metode Factorization (NMF) berdasarkan metode langsung atau disebut Separable Nonnegative Matriks Faktorisasi (SNMF). Dalam penelitian ini, tweet data diambil dari akun berita nasional pada aplikasi Twitter, dan topik terdeteksi menggunakan metode SNMF. Ada tiga tahap dalam metode SNMF, yaitu, menghasilkan kata co-kejadian
matriks, menentukan kata jangkar, dan memulihkan untuk mendapatkan matriks topik-kata. Penentuan dari kata anchor dilakukan dengan menggunakan tiga metode berbeda, yaitu Convex Metode berbasis lambung, metode SVD berdasarkan kata maksimum pada topik, dan SVD
metode berdasarkan perbedaan kata pada topik. Dalam deteksi topik, jumlah topik diproduksi bervariasi tergantung pada jumlah kata jangkar yang dihasilkan. Setelah mendapatkan topik, akurasi dihitung menggunakan unit topik word2vec. Hasil yang diperoleh menggunakan
tweet data akun berita nasional menunjukkan bahwa metode SVD berdasarkan perbedaan kata pada topik memiliki evaluasi topik yang buruk dibandingkan dengan dua topik lainnya.

ABSTRACT
Topic detection is the process used to analyze words in a textual data set to determine the topics in a collection, how they are related, and how these topics change over time. One method used to change the topic is the Nonnegative Matrix The Factorization (NMF) method is based on the direct method or called Separable Nonnegative Factor Matrix (SNMF). In this study, tweet data is taken from national news accounts on the Twitter application, and topics taken using the SNMF method. There are three methods in SNMF, namely, generating co-occurrence words matrix, determine anchor words, and recover to get a topic-word matrix. Determination of the word anchor is done using three different methods, namely Convex the stomach-based method, the SVD method based on the maximum words on the topic, and SVD method based on differences in words on the topic. In topic detection, the number of topics created varies depending on the number of anchor words produced. After getting the topic, it is calculated using the word2vec topic unit. The results obtained using National news account data tweets show the SVD method based on word differences on the topic has a worse evaluation topic compared to the other two topics."
2019
S-Pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Ichsani Mursidah
"ABSTRAK
Pendeteksian topik adalah proses untuk menemukan topik atau pokok pembahasan utama dalam suatu kumpulan dokumen. Untuk data yang besar, pendeteksian topik dengan manual sulit atau bahkan tidak mungkin dilakukan. Sehingga, dibutuhkan metode otomatis yang dikenal dengan istilah Topic Detection and Tracking (TDT). Pada penelitian ini metode TDT yang digunakan untuk masalah pendeteksian topik adalah fuzzy C-means (FCM). FCM bekerja cukup baik pada dimensi data yang rendah, tetapi gagal pada dimensi data yang tinggi. Pada metode fuzzy c-means umumnya dilakukan inisialisasi random yang menyebabkan data konvergen ke satu pusat (centre of gravity) sehingga topik-topik yang dihasilkan antara satu dengan yang lainnya sama. Untuk mengatasi masalah tersebut dibutuhkan inisialisasi yang tidak random, yaitu dengan menggunakan inisialisasi berbasis singular value decomposition (SVD). Hasil akurasi dari metode ini menunjukkan adanya peningkatan lebih baik dibandingkan dengan metode FCM dengan inisialisasi random. Dengan nilai akurasi terbaik untuk FA Cup adalah 0,923, untuk US Elections adalah 0,661 dan untuk Super Tuesday adalah 0,727.

ABSTRACT
Topic detection is the process of finding the main topic or topic in a document. For large data, manual topic detection is difficult or even impossible. Thus, it takes an automatic method known as Topic Detection and Tracking (TDT). In this research the TDT method used for topic detection problem is fuzzy C-means (FCM). FCM works reasonably well on low data dimensions, but fails on high data dimensions. In the method of fuzzy c-means is generally done random initialization that causes data convergent to one center (center of gravity) so that the topics generated from one another are equal. To solve this problem requires non-random initialization, ie by using a singular value decomposition (SVD) based initialization. The accuracy of this method shows a better improvement compared to the FCM method with random initialization. With the best accuracy value for the FA Cup is 0.923, for US Elections is 0.661 and for Super Tuesday is 0.727."
2017
T48587
UI - Tesis Membership  Universitas Indonesia Library
cover
Ika Dwi Novitasari
"ABSTRAK
Pendeteksian topik merupakan suatu proses untuk menemukan topik atau pokok pembahasan utama dalam suatu kumpulan dokumen. Pada penelitian ini, pendeteksian topik diterapkan pada media sosial, yaitu Twitter. Pendeteksian topik pada Twitter secara manual sulit dilakukan karena terlalu banyak tweets. Oleh karena itu, dibutuhkan adanya pendeteksian topik secara otomatis. Salah satu metode otomatis untuk pendeteksian topik adalah metode Separable-Nonnegative Matrix Factorization S-NMF dengan algoritma AGM. S-NMF merupakan model berbasis faktorisasi matriks yang dapat diselesaikan secara langsung dengan menggunakan asumsi bahwa setiap topik memiliki satu kata yang tidak terdapat pada topik lainnya yang disebut kata anchor. S-NMF dengan algoritma AGM terdiri dari tiga tahapan, yaitu pembentukan matriks coocurance, penentuan kata anchor, dan recover. Dalam penelitian ini dilakukan proses penentuan kata anchor berbasis Singular Value Decomposition SVD . Kemudian, hasilnya akan dibandingkan dengan penentuan kata anchor metode Convex Hull berbasis Gram-Schmidt. Penelitian memberikan hasil bahwa dengan memperhatikan semua kata sebagai kandidat kata anchor, SVD memberikan hasil yang lebih baik daripada Convex Hull. Sedangkan, jika menggunakan anchor threshold, Convex Hull masih memberikan hasil yang lebih baik dibandingkan dengan SVD.

ABSTRACT
Topic detection is a process to find main topic or main subject of discussion in a collection of documents. In this research, topic detection is applied to social media, namely Twitter. Manual detection of topics on Twitter is difficult because of too many tweets. Therefore, it is necessary to detect topics automatically. One of the automatic methods for topic detection is the Separable Nonnegative Matrix Factorization S NMF method with the AGM algorithm. S NMF is a matrix factorization based model that can be solved directly using the assumption that each topic has one word that is not present in another topic called anchor words. S NMF with AGM algorithm consists of three stages, namely the formation of coocurance matrix, finding the anchor words, and recover. In this research, the process of finding anchor words was done based on Singular Value Decomposition SVD . Then, the result was compared to anchor word finding by Convex Hull based method. The results has shown that by considering all words as anchor word candidates, SVD gave better results rather than Convex Hull. Meanwhile, when the anchor finding was done by using anchor threshold, Convex Hull still gave better result rather than SVD."
2017
T47592
UI - Tesis Membership  Universitas Indonesia Library
cover
Rifkin, Bernard
"Minyak solar di Indonesia sangat rendah kualitasnya, Penggunaan aditif untuk meningkatkan kualitas pembakaran diperlukan untuk meningkatkan efisiensi pembakaran dan mengurangi tingkat pencemaran lingkungan Jurusan Gas dan Petrokimia telah melakukan penelitian dan mendapatkan suatu bentuk aditif biodiesel yang mampu menaikan bilangan setana minyak solar Indonesia sehingga penambahannya menimbulkan terjadinya peningkatan sebesar hampir 4 angka dari bahan bakar dasarnya. Pengujian ini dilakukan untuk mengetahui secara aktual pengaruh emisi gas buang ataupun noise, dan untuk mendapatkan perubahan total rata-rata emisi yang dikeluarkan akibat penambahan aditif tersebut. Akan tetapi pengolahan data menjadi suatu hal yang penting dalam menarik kesimpulan dari pengujian yang dilakukan. Metode regresi adalah Salah satu bentuk penyederhanaan data sehingga dapat menarik suatu model persamaan yang dapat menarik garis hubungan antara suatu variabel yang bergantung, dalam hal ini emisi, dengan variabel lain yang merupakan prediktor dari variabel yang bergantung tadi. Akan tetapi penggunaan model linear dengan variabel predilctor yang memiliki korelasi yang kuat antara satu sama lain adalah suatu masalah dalam statistik yang disebut multicollinearity. Untuk menghilangkan masalah tersebut digunakan suatu metoda Singular Value Decomposition (SVD) untuk mendekornposisi variabel prediktor tersebut, dan mengalikan data dengan salah satu vektor hasil dekomposisi, yaitu right singular vektor (V) untuk menghilangkan korelasi antar preditor tersebut, yang kemudian diregresikan dan diintegrasikan untuk mendapatkan total rata-rata emisi yang dikeluarkan.
Hasil pengolahan data menunjukkan bahwa aditif tersebut dapat mengurangi emisi HC dan meningkatkan emisi CO2 untuk semua campuran dengan variasi putaran pada mesin Komatsu maupun Mitsubishi, dimana pada mesin Komatsu penurunan emisi HC terbesar ada pada campuran 0,10% vol sebesar 14,78% dan kenaikan emisi CO2 terbesar ada pada campuran 0.15% sebesar 4,53% yang menunjukkan bahwa penambahan aditif meningkatkan kualitas pembakaran. Pengintegralan hasil regresi pada data variasi pmbebanan untuk mesin Mitsubishi dengan 5 prediktor dan mengalikannya dengan vektor V memberikan nilai yang lebih menyeluruh terhadap nilai total rata-rata emisi yang dikeluarkan. Emisi HC yang meningkat untuk setiap campuran (terbesar pada campuran 0,1% vol sebesar 36,11%) dan emisi C02 yang menurun untuk semua campuran (terbesar pada campuran 0,05% sebesar 2,91%) menunjukan bahwa terjadi penurunan kualitas pembakaran akibat penarnbahan aditif MEN saat pengujian dengan variasi pembebanan untuk mesin Mitsubishi.

lndonesia has a low quality diesel htel Using additive to improve the ignition quality is one of the solution, which needed beside to increase the efficiency of ignition, also in order to reduce the level of hazardous emission released into the atmosphere. Department of Gas and Petrokimia - FTUI has conducted a research and was able to generate such biodiesel additive which can increase the cetane number nearly up to 4 number from its basic fuel This research performed to identify the actual impact of that additive in diesel engine based on its gas emission and noise level, and obtain the total's mean of emissions difference caused by adding the additive. However, data processing is an important thing so that we can draw a conclusion from our research. The regression method is a method that can used to draw a correlation from independent variables as predictors for dependent variable, in this case, emission. Nevertheless, by using a linear model of regression where their predictors are highly correlated among each other is a problem in statistic. This is call as multicollinearity. Applying Singular Value Decomposition (S VD) method to the data will generate a left singular vector (V). Then by multiplving data with V can remove the multicollinearity problem. Continued by regressing and performing integration will attain the total mean of emission produced by the engine.
The result has shown us that the additive can reduce the emission of HC and increase CO3 emission in every blend of fuel-additive for both engines, Komatsu and Mitsubishi, in variable .speed tests method For Komatsu, the highest reduction of HC emission is shown by 0.10% blend at a number of 14. 78%, and highest addition of C O2 is shown by 0.15% blend at a number of 4. 53%, gives an indication that using this additive is improving the quality of ignition as engine speed increased For variable load tests method that conducted for twtsubishi, integrating the regression from the data that had been multiplv by V is giving a more significant value of every emissionis total mean than using onbt one predictor, considering that more predictors is applied. The increasing of HC emission (highest increasing is 36. 11% at 0.1% blend and the decreasing of CO2 emission hghest decreasing is 2. 91% at 0.1% blend shown that the qualigt of ignition is weaken as adding the additive while conducting the variable load tests method in Mitstibishi engine.
"
Depok: Fakultas Teknik Universitas Indonesia, 2003
S37069
UI - Skripsi Membership  Universitas Indonesia Library
cover
Delano Novrilianto
"ABSTRAK
Pendeteksian topik merupakan proses untuk mendapatkan topik dari koleksi data tekstual. Salah satu metode otomatis untuk masalah pendeteksian topik adalah Separable Nonnegative Matrix Factorization SNMF . Terdapat tiga tahap yang dilakukan untuk menyelesaikan SNMF yakni membentuk matriks kookurensi kata-kata, menentukan kata-kata anchor, dan mencari matriks kata-topik. Metode yang umum digunakan untuk menentukan kata-kata anchor pada tahap kedua dari penyelesaian SNMF adalah dengan metode berbasis Convex Hull. Pada penelitian ini digunakan pendekatan lain untuk menentukan kata-kata anchor yaitu dengan memakai metode Singular Value Decomposition SVD . Topik-topik yang dihasilkan dengan kata-kata anchor -nya ditentukan dengan metode SVD dievaluasi tingkat intepretabilitasnya dengan memakai satuan Pointwise Mutual Information PMI dan dibandingkan dengan topik-topik dimana kata-kata anchor -nya ditentukan dengan metode berbasis Convex Hull. Waktu komputasi yang dibutuhkan untuk menentukan kata-kata anchor dengan metode SVD juga dibandingkan dengan waktu komputasi yang dibutuhkan untuk menentukan kata-kata anchor dengan metode berbasis Convex Hull.

ABSTRACT
Topic detection is the process of getting topics from a collection of textual data. One of the methods for detection problems is the Separable Nonnegative Matrix Factorization SNMF . There are three stages done to complete SNMF that is to form the word kookurensi matrix, determine the anchor words, and search for the word topic matrix. The common method used to determine the anchor words in the second stage of SNMF completion is the Convex Hull based method. In this research another approach is used to determine the anchor words, that is using Singular Value Decomposition SVD method. The resulting topics where the anchor words are determined by the SVD method will be evaluated for their interpretability level by using the Pointwise Mutual Information PMI unit and will compare with the topics where the anchor 39 s words are based on the Convex Hull based method. The computational time required to determine the anchor words by the SVD method will also be compared with the computational time required to determine the anchor words by the Convex Hull based method."
2017
S68021
UI - Skripsi Membership  Universitas Indonesia Library
<<   1 2 3 4 5 6 7 8 9 10   >>