Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 110685 dokumen yang sesuai dengan query
cover
Adi Wahyu Pribadi
"Setiap dokumen pada koleksi menjelaskan suatu konsep berdasarkan topik yang dibahasnya Konsep tersebut didapat dengan teknik pengindeksan konseptual atau Latenl Semantic Indexing. Teknik tersebut mengakibatkan jumlah dokumen yang terambil lebih banyak karena adanya perluasan kueri (c/uery expansion) secara konseptual. Seiring berjalannya waktu, teijadi penambahan dokumen sehingga indeks menjadi tidak lengkap. Digunakan metode penambahan dokumen secara dinamis pada indeks konseptual yang ada dengan metode folding-in dan SVD- Update. Ujicoba dilakukan pada kumpulan hasil penelitian lembaga BATAN sebanyak 1162 abstrak dokumen. Berdasarkan ujicoba, pada model pengindeksan konseptual dokumen yang terambil lebih banyak yaitu rata-rata 12,63% dibandingkan dengan penggunaan pengindeksan biasa sebanyak 10,37%, Pada ujicoba penambahan dokumen, terjadi penurunan kinerja yang tidak signifikan yaitu 0,5% hingga 2% saja.

Each document in the collection describes a concept based on particular topics. The concept is obtained with the technique of conceptual or latent Semantic Indexing. The technique resulting in the number of documents fetched more because of the conceptual queiy expansion. Over time, Ihere was the addition of documents so that the indexes are not complete. Using Folding-in and SVD- Update to update the index of document collection conceptually. We use BATAN research collection of 1162 document abstracts. Based on testing, on the conceptual model of the document fetched more with the average of 12.63% compared with the normal indexing of 10.37%. On testing of adding documents, a decline of performance that is not significant, namely 0.5% to 2% only."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2009
T25887
UI - Tesis Open  Universitas Indonesia Library
cover
Laskito Harmantyo
"Aplikasi information retrieval dalam wujud mesin pencari atau search engine sudah dikenal luas oleh pengguna internet. Informasi bisa didapatkan dengan melakukan pencocokan istilah dalam dokumen dengan istilah yang ingin dicari. Kata yang dimasukkan dalam query dicari kehadirannya dalam sejumlah dokumen. Pencocokan ini merupakan pencocokan secara harfiah atau yang dikenal dengan lexical matching. Metode pencocokan secara harfiah ini dapat memberikan hasil yang kurang akurat karena pencocokan harfiah hanya melihat kesamaan bentuk kata atau istilah saja tanpa melihat makna dan korelasi istilah tersebut. Latent Semantic Indexing (LSI) mengatasi masalah tersebut dengan menggunakan pendaftaran dan penyusunan istilah secara statistik. Struktur laten dituangkan dan digambarkan secara matematis dalam elemen-elemen matriks yang terukur. Teknik Singular Value Decomposition (SVD) digunakan untuk melakukan estimasi struktur penggunaan kata dalam dokumen-dokumen. SVD juga dipakai untuk meminimalisasi perhitungan dan meningkatkan performa information retrieval. Pembobotan pada dokumen dan query ditambahkan untuk meningkatkan performa relevansi perolehan dokumen. Implementasi LSI dengan SVD dilakukan secara web-based, dengan koleksi dokumen berupa judul dan abstrak dari sejumlah skripsi mahasiswa teknik elektro. Hasil ujicoba memberikan kesimpulan bahwa dari seluruh rangkaian proses perolehan informasi, 95% waktunya dihabiskan untuk kalkulasi SVD. Selain itu, pemakaian fitur klasifikasi dapat mempercepat proses sampai 64 kali waktu tanpa klasifikasi. Berbagai metode pembobotan juga terbukti memberikan hasil perolehan dokumen yang berbeda pada query yang sama, dengan tingkat relevansi yang berbeda. Berdasarkan perhitungan Non Interpolated Average Precision, skema pembobotan frekuensi kata untuk dokumen dan query merupakan skema yang paling baik dalam hal presisi.

Information retrieval in form like search engine has already known by a lot of internet users. Information can be obtained by doing terms matching. Terms in documents are matched dan compared by terms given by users in query. Such method like this known as lexical matching. This method can give inaccurate results because the mechanism is only matching and seeing the similarities of words without giving any concern of meaning or relevancy. Latent Semantic Indexing (LSI) try to compensate this problem by doing indexing and arranging terms in statistical manner. Latent structures are developed in mathematical way as values in matrices elements. Singular Value Decomposition (SVD) is used to estimating the structure of words in documents. In addition, SVD minimalize the matrices calculation and improves the performance of information retrieval application. Weighting scheme to documents and query added to improves the performance of relevancy retrieval. LSI with SVD implemented in web based way, with title and abstract from student of electrical engineering papers as document corpus. The experiment gives a fact that from all LSI process time, for about 95% is spent for SVD calculation. Classification feature of this application gives an acceleration up to 64 times of common process time (without classification). The number of user agent accessing the application gives a slow effect of processing time in linear manner. The great number of user, the longer process time. Various kind of weighting scheme makes a different documents retrieval result at the same queries. Calculation of Non-Interpolated Average Precision stated that word frequency weighting scheme for both document and query is the best in precision performance."
Depok: Fakultas Teknik Universitas Indonesia, 2007
S40368
UI - Skripsi Membership  Universitas Indonesia Library
cover
Suharto Anggono
"Sistem text retrieval (perolehan kembali teks) menanggapi query terhadap koleksi dokumen teks. Dua teknik yang telah diperkenalkan yang dapat digunakan pada text retrieval dan melibatkan penggunaan singular value decomposition (SVD, dekomposisi nilai singular) adalah variable Latent Semantic Indexing (VLSI) serta Latent Semantic Indexing (LSI), pendahulunya. Dokumen dapat dideskripsikan oleh kumpulan term, misalnya berupa kata. Dari dokumendokumen yang ada, dapat dibentuk matriks term-dokumen, A, yang berisi bobot term berdasarkan kemunculannya dalam dokumen. Pada VLSI, sebagaimana LSI, digunakan aproksimasi rank-rendah terhadap A untuk dicocokkan dengan vektor query. Namun, berbeda dengan LSI, aproksimasi pada VLSI tergantung pada distribusi probabilitas vektor query. Distribusi itu dicirikan oleh matriks cooccurrence, CQ. Aproksimasi untuk A itu bisa didapatkan melalui SVD terhadap CQ 1/2A. Telah dilakukan penelitian terhadap VLSI dengan mempelajari literatur, mengerjakan secara manual prosedur VLSI, dan melakukan percobaan penggunaan VLSI. Percobaan dilakukan dengan koleksi 100 dokumen yang pernah digunakan pada mata kuliah Pemrosesan Teks, koleksi 9 dokumen berupa judul technical memo, koleksi MED, dan koleksi CACM. Dari analisis, ditemukan bahwa yang dikalikan dengan A untuk kemudian di- SVD tidak harus CQ 1/2. Dari percobaan dengan koleksi MED dan koleksi CACM, ditemukan bahwa perolehan dokumen dengan VLSI bisa bagus dalam hal precision pada sedikit dokumen berperingkat teratas."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2007
T-Pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Delano Novrilianto
"ABSTRAK
Pendeteksian topik merupakan proses untuk mendapatkan topik dari koleksi data tekstual. Salah satu metode otomatis untuk masalah pendeteksian topik adalah Separable Nonnegative Matrix Factorization SNMF . Terdapat tiga tahap yang dilakukan untuk menyelesaikan SNMF yakni membentuk matriks kookurensi kata-kata, menentukan kata-kata anchor, dan mencari matriks kata-topik. Metode yang umum digunakan untuk menentukan kata-kata anchor pada tahap kedua dari penyelesaian SNMF adalah dengan metode berbasis Convex Hull. Pada penelitian ini digunakan pendekatan lain untuk menentukan kata-kata anchor yaitu dengan memakai metode Singular Value Decomposition SVD . Topik-topik yang dihasilkan dengan kata-kata anchor -nya ditentukan dengan metode SVD dievaluasi tingkat intepretabilitasnya dengan memakai satuan Pointwise Mutual Information PMI dan dibandingkan dengan topik-topik dimana kata-kata anchor -nya ditentukan dengan metode berbasis Convex Hull. Waktu komputasi yang dibutuhkan untuk menentukan kata-kata anchor dengan metode SVD juga dibandingkan dengan waktu komputasi yang dibutuhkan untuk menentukan kata-kata anchor dengan metode berbasis Convex Hull.

ABSTRACT
Topic detection is the process of getting topics from a collection of textual data. One of the methods for detection problems is the Separable Nonnegative Matrix Factorization SNMF . There are three stages done to complete SNMF that is to form the word kookurensi matrix, determine the anchor words, and search for the word topic matrix. The common method used to determine the anchor words in the second stage of SNMF completion is the Convex Hull based method. In this research another approach is used to determine the anchor words, that is using Singular Value Decomposition SVD method. The resulting topics where the anchor words are determined by the SVD method will be evaluated for their interpretability level by using the Pointwise Mutual Information PMI unit and will compare with the topics where the anchor 39 s words are based on the Convex Hull based method. The computational time required to determine the anchor words by the SVD method will also be compared with the computational time required to determine the anchor words by the Convex Hull based method."
2017
S68021
UI - Skripsi Membership  Universitas Indonesia Library
cover
Gema Parasti Mindara
"Dewasa ini, banyak sekali ketersediaan data multimedia yang direkam dalam bentuk digital seperti teks, citra, audio dan video serta tersimpan dalam berbagai database. Data multimedia tersebut dapat diakses dengan menggunakan mesin pencari seperti Google, Yahoo, dan Bing. Namun, hasil pencarian dari mesin pencari tersebut belum bisamenghubungkan berbagai media kedalam suatu konsep yang saling terkait. Hal ini menyebabkan hasil penetapan relevansi (relevance judgement) menjadi tidak optimal. Disisi lain, mesin pencari hanya bisa menerima kueri tipe teks atau citra, seperti Google. Oleh karena itu, dibutuhkan suatu mekanisme identifikasi data multimedia secara terpadu (Unified Indexing) dan Query Interface yang bisa menerima berbagai tipe media.
Proses Unified Indexing terdiri dari beberapa tahapan: (1) Membangun testbed; (2) Perancangan Unified Indexing; (3) Implementasi; (4) Ujicoba dan Evaluasi. Perancangan Unified Indexing terdiri dari: Modul Mono Modal Indexing, Modul Conceptdan Modul Search. Modul Mono Modal Indexing melakukan pengindeksan masing-masing tipe media. Sedangkan ModulConceptmelakukanpemberiankonsepkepada data multimedia dengan proses naming. Selanjutnya, Modul Search melakukan pencarian informasi dengan berbagai tipe kueri multimedia (QueryInterface). Ketiga modul tersebut selanjutnya diimplementasikan pada tahapan implementasi. Tahapan ujicoba dan evaluasi dibangun berdasarkan dua skenario, yaitu sistem yang belum menggunakan UnifiedIndexing dan sistem yang telah menggunakan UnifiedIndexing.
Hasil ujicoba memberikan hasil peningkatan perolehan informasi data terambil untuk kueri teks 77%, kueri citra 60%, kueri audio 62% dan kueri video 60%. Sedangkan rata-rata perolehan data relevan untuk kueri teks 81%, kueri citra 85%, kueri audio 84% dan kueri video 85%.

Today, a lot of recorded multimedia data available in digital form such as text, image, audio and video stored in various databases. Multimedia data could be accessed by using search engine such as Google, Yahoo, and Bing. However, the result has not been able to link variety of media into an interrelated concepts. This causes the results of relevance judgement is not optimal. On the other hand, the search enginesuch as Google could only received query type likes text or image. Therefore, we need a mechanism of identifying multimedia data in integrated way (Unified Indexing) and Query Interface that can accept various type of media.
Unified Indexing and Query Interface processes consist of several stages: (1) Establish a testbed as experimental data; (2) Design of Unified Indexing; (3) Implementation; and (4) Test and Evaluation. The design of Unified Indexing comprises of: Mono Modal Indexing Module, Concept Module and Search Module. Mono Modal Indexing Module performs indexing of each type of media. Concept Module conducts giving concept of multimedia data with naming process. Search Module searchs information with various type of multimedia queries (Query Interface). The modules are implemented in the Implementation Stage. Test and evaluation stage built on two scenarios: a system that is not use Unified Indexing and system that use Unified Indexing
The results showed that by using the Unified Indexing, multimedia data residing on the same concept provides a better retrieval results:using query by text improve by average is 77%, by image is 60%, by audio is 62% and by video is 60%. Furthermore, the increase of relevant data using query by text is 81%, by image is 85%, by audio is 84% and by video is 85%.
"
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2013
T-pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Pratama Amirullisan
"Kebutuhan terhadap Internet sudah sangat dirasakan, namun, akibat kurangnya kontrol dalam mengawasi kegiatan berselancar di dunia maya ini, menjadikan konten yang dapat merusak moral tersebar dengan sangat cepat dan begitu leluasa untuk diakses oleh setiap orang.
Penelitian ini membahas Analisa dan Rancang Bangun Sistem Deteksi Cepat Konten Web Negatif Berbasis Teks Menggunakan Random Sampling dan Latent Semantic Analysis dengan Algoritma Singular Value Decomposition yang bertujuan untuk mengklasifikasikan website-website berkonten negatif dengan langkah awal melakukan penelusuran terhadap link-link pada suatu website dengan teknik crawling oleh program web crawler untuk mengumpulkan konten website yang berupa teks. Seluruh konten teks yang telah dikumpulkan selanjutnya akan diklasifikasikan menggunakan metode Latent Semantic Analysis dengan menerapkan algoritma Singular Value Decomposition untuk menunjukkan hasil klasifikasi yang mampu membedakan antara website berkonten negatif dengan konten non-negatif. Pengujian dilakukan dengan menggunakan metode full sampling dan random sampling untuk menentukan cara pendeteksian website berkonten negatif yang lebih cepat.
Hasil pengujian pada penelitian ini menunjukkan bahwa metode Latent Semantic Analysis dengan algoritma Singular Value Decomposition berhasil mengklasifikasikan website berkonten negatif dengan batas persentase hasil klasifikasi sebesar 70% sebagai indikatornya, dan metode random sampling dengan pengambilan sample hanya 30% dari total telah berhasil meningkatkan kecepatan eksekusi program rata-rata sebesar 507.01%, dengan penurunan akurasi rata-rata hanya sebesar 27.19% dibandingkan dengan metode full sampling untuk website berkonten negatif.

The need of the Internet has been keenly felt, however, due to a lack of control in monitoring the activities of surfing in this virtual world, making contents that will damage the morale spread very quickly and so freely accessible to everyone.
This study discusses the Analysis and Design of Quick Detection System to Text-Based Negative Web Content Using Random Sampling and Latent Semantic Analysis with Singular Value Decomposition Algorithm which aims to classify negative content websites with the first step is to perform a search for links in a website using crawling technique by a web crawler program to gather website content in the text form. The entire text-based contents that have been collected will then be classified using Latent Semantic Analysis method by applying Singular Value Decomposition algorithm to show the result of classification that is able to distinguish the negative content and non-negative content website. The testing is performed using full sampling and random sampling method to determine which one is faster in doing the detection of negative content website.
The results of this study showed that Latent Semantic Analysis method with Singular Value Decomposition algorithm successfully classifies the negative content websites with the percentage of classification result by 70% as the indicator, and the random sampling method with only 30% of total samples has been successful in increasing the speed of program execution by an average of 507.01%, with decreasing accuracy by an average of only 27.19% compared to full sampling method for negative content websites.
"
Depok: Fakultas Teknik Universitas Indonesia, 2016
S66330
UI - Skripsi Membership  Universitas Indonesia Library
cover
Boma Anantasatya Adhi
"SIMPLE-O merupakan sistem penilaian esai otomatis berbasis LSA. Tesis ini membahas tentang rancang bangun arsitektur parallel yang mungkin diaplikasikan pada SIMPLE-O. Paralelisasi SIMPLE-O akan dilakukan dalam 2 tingkat, tingkat pertama dengan membuat cluster yang hemat energi, dan tingkat kedua adalah paralelisasi algoritma SVD. Paralelisasi algoritma SVD akan dilakukan pada 3 platform, yaitu: GPGPU, APU, CPU, dan dengan 3 jenis algoritma, algoritma numerik Golub-Kahan-Reinsch, algoritma eksak Hestenes-Jacobi dan prediksi nilai singular berbasis norm. Algoritma pendekatan berbasis norm pada platform GPU mampu meningkatkan kecepatan 5.8 kali lipat dari sistem awal dengan mempertahankan korelasi hasil penilaian hingga 0.928.

SIMPLE-O is an LSA based automatic essay grader. This tesis proposes several parallel computing architecture for SIMPLE-O. SIMPLE-O parallelization will be done in 2 level. First level is done by building a low power cluster and the second level is at the SVD algorithm level. Parallel SVD architecture will be implemented in 3 platform: GPGPU, APU, CPU with 3 algorithm, numeric based Golub-Kahan-Reinsch, Hestenes-Jacobi exact algorithm and singular value prediction based on norm. The proposed algorithm, Norm Based Approximation gains up to 5.8 times calculation speed of the original system while maintaining 0.928 correlation against reference algorithm."
Depok: Fakultas Teknik Universitas Indonesia, 2013
T34975
UI - Tesis Membership  Universitas Indonesia Library
cover
Boma Anantasatya Adhi
"SIMPLE-O merupakan sistem penilaian esaiotomatis berbasis latent semantic analysis (LSA) yang bergantungpada Java Matrix untuk melakukan perhitungan singular value decomposition (SVD) dalam melakukan penilaian. Pada skripsi ini akan dibahas mengenai implementasi proses SVD pada platform general purposes graphic processing unit (GPGPU)pada SIMPLE-O yang lebih cepat daripada algoritma sekuensial biasa yang ada pada JAMA.GPGPU merupakan suatu platform komputasi paralel performa tinggi yang berbasiskan Graphic Processing Unit komersial biasa.
Implementasi akan dilakukan dengan cara memindahkan proses eksekusi SVD pada SIMPLE-O ke modul eksternal yang ditulis dalam bahasa Cdengan Application Programming Interface (API) untuk GPGPU seperti CUDA, CULA tools, danOpenCL. Performa diukur dengan peningkatan kecepatan waktu kalkulasi SVD dan jumlah kalkulasi yang dapat dilakukan setiap detiknya. Implementasi GPGPU meningkatkan performa pada matriks ukuran 512x512 berkisar antara lebih dari 200 kali lipat (CULA tools) hingga 4200 kali lipat (OpenCL).

Simple-O is an automated essay grading system based on latent semantic analysis (LSA) which depends on Java Matrix (JAMA) for singular value decomposition (SVD) calculation.This paper will present an implementation of SVD calculation on General Purpose Graphic Processing Unit (GPGPU) platformin SIMPLE-O, which is essentially faster and more efficient than standard sequential algorithm found in JAMA. GPGPU is a high performance parallel computing platform based on commercially available 3D Graphic Processing Unit.
Implementation will be done by altering the SVD execution unit to pipe an external module written in C with GPGPU Application Programming Interface (API) such as CUDA, CULA tools and OpenCL. Performance will be measured in terms of SVD calculation time improvements and numbers of calculation per second. Over 200 times (CULA tools) up to 4200 times (OpenCL) performance gain were measured in 512 x 512 matrix.
"
Depok: Fakultas Teknik Universitas Indonesia, 2010
S51220
UI - Skripsi Open  Universitas Indonesia Library
cover
Raynaldi Suhaili
"ABSTRAK
Dalam beberapa tahun terakhir, kemajuan besar telah terjadi pada sistem pengenalan wajah. Banyak model yang telah diusulkan. Pada penelitian ini, uji coba dilakukan dengan model tertentu. Teknik Logarithm Transformation pertama-tama diterapkan untuk meningkatkan kualitas gambar wajah dan mengatasi variasi pencahayaan. Selanjutnya dilakukan proses ekstraksi fitur wajah dari gambar berdasarkan Singular Value Decomposition SVD . Nilai singular diambil sebagai fitur yang diasumsikan merepresentasikan gambar citra wajah. Kemudian, algoritma K-Nearest Neighbors KNN dijalankan untuk proses klasifikasi, sehingga menghasilkan persentase tingkat akurasi program. ORL faces database dipilih untuk menguji model program pengenalan wajah. Dalam penelitian ini, data uji menggunakan hasil ektraksi fitur SVD dibandingkan dengan data uji tanpa ekstraksi fitur. Dari hasil uji coba, diperoleh bahwa penggunaan data uji menggunakan hasil ekstraksi fitur SVD menghasilkan proses running time yang lebih cepat dibandingkan dengan menggunakan data tanpa ekstraksi fitur. Namun persentase tingkat akurasi rata-rata tertinggi yang didapatkan pada setiap iterasi terpilih, lebih baik hasilnya dengan data uji tanpa ektraksi fitur, yaitu sebesar 98,34 pada 90 data training, dibandingkan dengan data uji hasil ektraksi fitur SVD yang memperoleh persentase tingkat akurasi rata-rata sebesar 82,82 pada 90 data training.

ABSTRACT
In the past several years, major advances have occurred in face recognition system. Many models have been proposed. In this paper, the experiments were carried out with a particular model. The Logarithm Transformation LT technique is firstly applied to enhance the face image and handling lighting variations of face image. Furthermore, extract the feature of the face image based on Singular Value Decomposition SVD . The singular value is taken as a feature that is assumed to represent the face image. Then, K Nearest Neighbors KNN algorithm is run for the classification process, so it generates an accuracy of program. ORL database was chosen to test the model of face recognition program. In this research, data using the feature extraction were compared to the data without feature extraction. From the test results, it was found that the use of test data using feature extraction has a faster running time than using data without feature extraction. However, the highest rate of average accuracy that obtained on each chosen iteration, the result is better with the test data without feature extraction, that is 98.34 at 90 data training, compared to the test data using feature extraction which has average accuracy level of 82.82 at 90 of data training."
2017
S-Pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Hamimah
"ABSTRAK
Pendeteksian topik adalah proses menemukan topik yang digunakan untuk menganalisis kata dalam suatu kumpulan dokumen. Pendeteksian topik secara manual pada data yang besar sangatlah sulit. Sehingga dibutuhkan metode otomatis yang dikenal dengan pemodelan topik. Salah satu metode pemodelan topik yang sering digunakan adalah metode clustering. Clustering adalah teknik pengelompokan data yang tujuannya adalah untuk mengelompokkan data tersebut sehingga anggota dari grup yang sama lebih homogen atau lebih mirip satu sama lain daripada dengan anggota kelompok yang berbeda. Metode clustering yang sering digunakan adalah Fuzzy C-Means FCM. FCM ini bekerja dengan baik pada data dengan dimensi yang rendah, namun gagal pada data dengan dimensi yang tinggi Winkler, dkk, 2011. Pada data dimensi yang tinggi, algoritma FCM konvergen ke satu pusat centre of gravity, sehingga topik-topik yang dihasilkan antara satu dengan yang lainnya sama. Salah satu pendekatan untuk mengatasi kegagalan metode FCM pada data dimensi tinggi adalah memproyeksikan data pada ruang Eigen dengan dimensi lebih rendah dan metode tersebut dikenal juga dengan Eigenspace-based Fuzzy C-Means EFCM. Pada algoritma EFCM umumnya dilakukan inisialisasi random yang menyebabkan topik yang dihasilkan tidak sama setiap kali algoritma tersebut dijalankan. Untuk mengatasi masalah tersebut dibutuhkan inisialisasi yang tidak random. Untuk itu, pada skripsi ini akan digunakan metode Nonnegative Double Singular Value Decomposition NNDSVD. Algoritma NNDSVD terdiri dari dua proses metode SVD. Hasil dari simulasi ini menunjukkan bahwa nilai akurasi dengan inisialisasi NNDSVD menunjukkan adanya peningkatan lebih baik dibandingkan dengan inisialisasi random dan NNDSVD dapat menyelesaikan masalah EFCM dengan data berdimensi tinggi.

ABSTRACT
Detection Topic is a process of finding the topics used to analyze words in a document that a collection of textual data. Detecting topic for a very large document hardly done manually. The topic detection problem is automatically known as topic modeling. One method of topic modeling that are commonly used is clustering method. Clustering is a data grouping technique which purposes is to group the data so members of each group are more homogeneous and more like each other than with different group members. This research will use fuzzy clustering method with Fuzzy C Means algorithm FCM . FCM works well on low data dimensions but it fails on high data dimensions. One approach to overcome the failure of FCM methods in high dimensional spaces is to project data on lower dimensional Eigen spaces and the method is also known as EigenSpace based FCM EFCM. In the EFCM, the algorithm did random initialization that causes the resulting topic was not same every time the algorithm runs. To solve this problem, it requires to implement non random initialization. In this study, we used the initial Nonnegative Double Singular Value Decomposition NNDSVD. The basis of the NNSVD algorithm is a two processes SVD method. This simulation results show that NNDSVD initialization method can solves the eigenspace based Fuzzy C Means problems in high dimension data and NNDSVD based initialization gives same resulted topic every executed algorithm. "
2018
S-Pdf
UI - Skripsi Membership  Universitas Indonesia Library
<<   1 2 3 4 5 6 7 8 9 10   >>