Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 21417 dokumen yang sesuai dengan query
cover
Prajanto Wahyu Adi
"This paper proposed a hybrid watermarking method that used dither quantization of Singular Value Decomposition (SVD) on average coefficients of Integer Haar Wavelet Transform (IHWT). The wa-termark image embeds through dither quantization process on singular coefficients value. This sche-me aims to obtain the higher robustness level than previous method which performs dither quanti-zation of SVD directly on image pixels value. The experiment results show that the proposed method has proper watermarked images quality above 38dB. The proposed method has better performance than the previous method in term of robustness against several image processing attacks. In JPEG compression with Quality Factor of 50 and 70, JPEG2000 compression with Compression Ratio of 5 and 3, average filtering, and Gaussian filtering, the previous method has average Normalized Correla-tion (NC) values of 0.8756, 0.9759, 0.9509, 0.9905, 0.8321, and 0.9297 respectively. While, the pro-posed method has better average NC values of 0.9730, 0.9884, 0.9844, 0.9963, 0.9020, and 0.9590 respectively.
Paper ini mengusulkan metode watermarking yang menggabungkan kuantisasi dither SVD pada nilai koefisien rata-rata IHWT. Citra watermark disisipkan melalui proses kuantisasi dither pada nilai koe-fisien singular. Skema ini dilakukan untuk memperoleh tingkat ketahanan yang lebih tinggi dari meto-de sebelumnya yang melakukan kuantisasi dither SVD secara langsung pada nilai piksel citra. Hasil percobaan menunjukkan bahwa metode yang diusulkan mempunyai kualitas citra ter-watermark yang layak diatas 38dB. Metode yang diusulkan mempunyai kinerja lebih baik dari metode sebelumnya da-lam hal ketahanan terhadap beberapa serangan citra. Dalam kompresi JPEG dengan Quality Factor 50 dan 70, kompresi JPEG2000 dengan Compression Ratio 5 dan 3, average filtering, dan gaussian filte-ring, metode sebelumnya menghasilkan nilai Normalized Correlation (NC) rata-rata berturut-turut se-besar 0.8756, 0.9759, 0.9509, 0.9905, 0.8321, dan 0.9297. Sementara, metode yang diusulkan meng-hasilkan nilai NC rata-rata yang lebih baik sebesar 0.9730, 0.9884, 0.9844, 0.9963, 0.9020, dan 0.9590 berturut-turut."
Universitas Dian Nuswantoro, Faculty of Computer Science, 2016
PDF
Artikel Jurnal  Universitas Indonesia Library
cover
Hamimah
"ABSTRAK
Pendeteksian topik adalah proses menemukan topik yang digunakan untuk menganalisis kata dalam suatu kumpulan dokumen. Pendeteksian topik secara manual pada data yang besar sangatlah sulit. Sehingga dibutuhkan metode otomatis yang dikenal dengan pemodelan topik. Salah satu metode pemodelan topik yang sering digunakan adalah metode clustering. Clustering adalah teknik pengelompokan data yang tujuannya adalah untuk mengelompokkan data tersebut sehingga anggota dari grup yang sama lebih homogen atau lebih mirip satu sama lain daripada dengan anggota kelompok yang berbeda. Metode clustering yang sering digunakan adalah Fuzzy C-Means FCM. FCM ini bekerja dengan baik pada data dengan dimensi yang rendah, namun gagal pada data dengan dimensi yang tinggi Winkler, dkk, 2011. Pada data dimensi yang tinggi, algoritma FCM konvergen ke satu pusat centre of gravity, sehingga topik-topik yang dihasilkan antara satu dengan yang lainnya sama. Salah satu pendekatan untuk mengatasi kegagalan metode FCM pada data dimensi tinggi adalah memproyeksikan data pada ruang Eigen dengan dimensi lebih rendah dan metode tersebut dikenal juga dengan Eigenspace-based Fuzzy C-Means EFCM. Pada algoritma EFCM umumnya dilakukan inisialisasi random yang menyebabkan topik yang dihasilkan tidak sama setiap kali algoritma tersebut dijalankan. Untuk mengatasi masalah tersebut dibutuhkan inisialisasi yang tidak random. Untuk itu, pada skripsi ini akan digunakan metode Nonnegative Double Singular Value Decomposition NNDSVD. Algoritma NNDSVD terdiri dari dua proses metode SVD. Hasil dari simulasi ini menunjukkan bahwa nilai akurasi dengan inisialisasi NNDSVD menunjukkan adanya peningkatan lebih baik dibandingkan dengan inisialisasi random dan NNDSVD dapat menyelesaikan masalah EFCM dengan data berdimensi tinggi.

ABSTRACT
Detection Topic is a process of finding the topics used to analyze words in a document that a collection of textual data. Detecting topic for a very large document hardly done manually. The topic detection problem is automatically known as topic modeling. One method of topic modeling that are commonly used is clustering method. Clustering is a data grouping technique which purposes is to group the data so members of each group are more homogeneous and more like each other than with different group members. This research will use fuzzy clustering method with Fuzzy C Means algorithm FCM . FCM works well on low data dimensions but it fails on high data dimensions. One approach to overcome the failure of FCM methods in high dimensional spaces is to project data on lower dimensional Eigen spaces and the method is also known as EigenSpace based FCM EFCM. In the EFCM, the algorithm did random initialization that causes the resulting topic was not same every time the algorithm runs. To solve this problem, it requires to implement non random initialization. In this study, we used the initial Nonnegative Double Singular Value Decomposition NNDSVD. The basis of the NNSVD algorithm is a two processes SVD method. This simulation results show that NNDSVD initialization method can solves the eigenspace based Fuzzy C Means problems in high dimension data and NNDSVD based initialization gives same resulted topic every executed algorithm. "
2018
S-Pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Naufal Khairil Imami
"ABSTRAK
Deteksi topik adalah proses yang digunakan untuk menganalisis kata-kata dalam kumpulan data tekstual untuk ditentukan topik dalam koleksi, bagaimana mereka saling berhubungan, dan bagaimana topik ini berubah dari waktu ke waktu. Salah satu metode yang digunakan untuk mendeteksi topik adalah Nonnegative Matrix
Metode Factorization (NMF) berdasarkan metode langsung atau disebut Separable Nonnegative Matriks Faktorisasi (SNMF). Dalam penelitian ini, tweet data diambil dari akun berita nasional pada aplikasi Twitter, dan topik terdeteksi menggunakan metode SNMF. Ada tiga tahap dalam metode SNMF, yaitu, menghasilkan kata co-kejadian
matriks, menentukan kata jangkar, dan memulihkan untuk mendapatkan matriks topik-kata. Penentuan dari kata anchor dilakukan dengan menggunakan tiga metode berbeda, yaitu Convex Metode berbasis lambung, metode SVD berdasarkan kata maksimum pada topik, dan SVD
metode berdasarkan perbedaan kata pada topik. Dalam deteksi topik, jumlah topik diproduksi bervariasi tergantung pada jumlah kata jangkar yang dihasilkan. Setelah mendapatkan topik, akurasi dihitung menggunakan unit topik word2vec. Hasil yang diperoleh menggunakan
tweet data akun berita nasional menunjukkan bahwa metode SVD berdasarkan perbedaan kata pada topik memiliki evaluasi topik yang buruk dibandingkan dengan dua topik lainnya.

ABSTRACT
Topic detection is the process used to analyze words in a textual data set to determine the topics in a collection, how they are related, and how these topics change over time. One method used to change the topic is the Nonnegative Matrix The Factorization (NMF) method is based on the direct method or called Separable Nonnegative Factor Matrix (SNMF). In this study, tweet data is taken from national news accounts on the Twitter application, and topics taken using the SNMF method. There are three methods in SNMF, namely, generating co-occurrence words matrix, determine anchor words, and recover to get a topic-word matrix. Determination of the word anchor is done using three different methods, namely Convex the stomach-based method, the SVD method based on the maximum words on the topic, and SVD method based on differences in words on the topic. In topic detection, the number of topics created varies depending on the number of anchor words produced. After getting the topic, it is calculated using the word2vec topic unit. The results obtained using National news account data tweets show the SVD method based on word differences on the topic has a worse evaluation topic compared to the other two topics."
2019
S-Pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Raynaldi Suhaili
"ABSTRAK
Dalam beberapa tahun terakhir, kemajuan besar telah terjadi pada sistem pengenalan wajah. Banyak model yang telah diusulkan. Pada penelitian ini, uji coba dilakukan dengan model tertentu. Teknik Logarithm Transformation pertama-tama diterapkan untuk meningkatkan kualitas gambar wajah dan mengatasi variasi pencahayaan. Selanjutnya dilakukan proses ekstraksi fitur wajah dari gambar berdasarkan Singular Value Decomposition SVD . Nilai singular diambil sebagai fitur yang diasumsikan merepresentasikan gambar citra wajah. Kemudian, algoritma K-Nearest Neighbors KNN dijalankan untuk proses klasifikasi, sehingga menghasilkan persentase tingkat akurasi program. ORL faces database dipilih untuk menguji model program pengenalan wajah. Dalam penelitian ini, data uji menggunakan hasil ektraksi fitur SVD dibandingkan dengan data uji tanpa ekstraksi fitur. Dari hasil uji coba, diperoleh bahwa penggunaan data uji menggunakan hasil ekstraksi fitur SVD menghasilkan proses running time yang lebih cepat dibandingkan dengan menggunakan data tanpa ekstraksi fitur. Namun persentase tingkat akurasi rata-rata tertinggi yang didapatkan pada setiap iterasi terpilih, lebih baik hasilnya dengan data uji tanpa ektraksi fitur, yaitu sebesar 98,34 pada 90 data training, dibandingkan dengan data uji hasil ektraksi fitur SVD yang memperoleh persentase tingkat akurasi rata-rata sebesar 82,82 pada 90 data training.

ABSTRACT
In the past several years, major advances have occurred in face recognition system. Many models have been proposed. In this paper, the experiments were carried out with a particular model. The Logarithm Transformation LT technique is firstly applied to enhance the face image and handling lighting variations of face image. Furthermore, extract the feature of the face image based on Singular Value Decomposition SVD . The singular value is taken as a feature that is assumed to represent the face image. Then, K Nearest Neighbors KNN algorithm is run for the classification process, so it generates an accuracy of program. ORL database was chosen to test the model of face recognition program. In this research, data using the feature extraction were compared to the data without feature extraction. From the test results, it was found that the use of test data using feature extraction has a faster running time than using data without feature extraction. However, the highest rate of average accuracy that obtained on each chosen iteration, the result is better with the test data without feature extraction, that is 98.34 at 90 data training, compared to the test data using feature extraction which has average accuracy level of 82.82 at 90 of data training."
2017
S-Pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Dhar, Pranab Kumar
"This book introduces audio watermarking methods in transform domain based on matrix decomposition for copyright protection. Chapter 1 discusses the application and properties of digital watermarking. Chapter 2 proposes a blind lifting wavelet transform (LWT) based watermarking method using fast Walsh Hadamard transform (FWHT) and singular value decomposition (SVD) for audio copyright protection. Chapter 3 presents a blind audio watermarking method based on LWT and QR decomposition (QRD) for audio copyright protection. Chapter 4 introduces an audio watermarking algorithm based on FWHT and LU decomposition (LUD). Chapter 5 proposes an audio watermarking method based on LWT and Schur decomposition (SD). Chapter 6 explains in details on the challenges and future trends of audio watermarking in various application areas."
Switzerland: Springer Nature , 2019
e20505616
eBooks  Universitas Indonesia Library
cover
Deo Lahara
"ABSTRAK
Pendeteksian topik topic detection adalah suatu proses yang digunakan untuk menganalisis kata-kata pada suatu koleksi data tekstual untuk menentukan topik-topik yang ada pada koleksi tersebut. Pendeteksian topik pada dokumen yang sangat besar sulit dilakukan secara manual sehingga dibutuhkan metode otomatis. Masalah pendeteksian topik secara otomatis dikenal dengan istilah topic detection and tracking TDT . Suatu metode alternatif TDT untuk masalah pendeteksian topik adalah fuzzy C-means FCM. Pada metode fuzzy C-means, umumnya pusat cluster ditentukan secara acak atau inisialisasi random. Namun, terkait dengan masalah dimensi yang tinggi pada inisialisasi random akan menyebabkan algoritma konvergen ke satu pusat. Sehingga, topik-topik yang dihasilkan antara satu dengan yang lainnya sama. Untuk itu, diperlukan metode untuk membuat inisialisasi yang dapat mengatasi masalah tersebut. Salah satu metode inisialisasi yang akan dikembangkan pada penelitian ini adalah metode Singular Value Decomposition SVD . Hasil simulasi menunjukan bahwa metode inisialisasi dapat mengatasi permasalahan fuzzy C-means pada data dimensi yang tinggi sehingga topik-topik yang dihasilkan tidak sama terhadap satu sama lain.

ABSTRAK
Topic detection is a process used to analyze words in a collection of textual data to determine the topics of the collection. Detecting topics on a very large document is hardly done manually so that automatic methods are needed. Automatic method to detect topics in textual documents is known as Topic Detection and Tracking TDT . An alternative method of TDT for topic detection problems is fuzzy C means FCM . In the FCM method, generally the cluster center is random initialization. However, related to the problem of high dimensional random initialization causes the algorithm to converge to one center, it means that all generated topics are similar. For that, a method is needed to create an initialization that resolves the problem. One of the initialization methods that will be developed in this research is Singular Value Decomposition SVD method. The simulation results show that the SVD initialization method can overcome the fuzzy C means problem in the high dimension data so that the resulting topics are not equal to each other. "
2017
S69378
UI - Skripsi Membership  Universitas Indonesia Library
cover
Adi Wahyu Pribadi
"Setiap dokumen pada koleksi menjelaskan suatu konsep berdasarkan topik yang dibahasnya Konsep tersebut didapat dengan teknik pengindeksan konseptual atau Latenl Semantic Indexing. Teknik tersebut mengakibatkan jumlah dokumen yang terambil lebih banyak karena adanya perluasan kueri (c/uery expansion) secara konseptual. Seiring berjalannya waktu, teijadi penambahan dokumen sehingga indeks menjadi tidak lengkap. Digunakan metode penambahan dokumen secara dinamis pada indeks konseptual yang ada dengan metode folding-in dan SVD- Update. Ujicoba dilakukan pada kumpulan hasil penelitian lembaga BATAN sebanyak 1162 abstrak dokumen. Berdasarkan ujicoba, pada model pengindeksan konseptual dokumen yang terambil lebih banyak yaitu rata-rata 12,63% dibandingkan dengan penggunaan pengindeksan biasa sebanyak 10,37%, Pada ujicoba penambahan dokumen, terjadi penurunan kinerja yang tidak signifikan yaitu 0,5% hingga 2% saja.

Each document in the collection describes a concept based on particular topics. The concept is obtained with the technique of conceptual or latent Semantic Indexing. The technique resulting in the number of documents fetched more because of the conceptual queiy expansion. Over time, Ihere was the addition of documents so that the indexes are not complete. Using Folding-in and SVD- Update to update the index of document collection conceptually. We use BATAN research collection of 1162 document abstracts. Based on testing, on the conceptual model of the document fetched more with the average of 12.63% compared with the normal indexing of 10.37%. On testing of adding documents, a decline of performance that is not significant, namely 0.5% to 2% only."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2009
T25887
UI - Tesis Open  Universitas Indonesia Library
cover
"Ant-based document clustering is a cluster method of measuring text documents similarity based on the shortest path between nodes (trial phase) and determines the optimal clusters of sequence do-cument similarity (dividing phase). The processing time of trial phase Ant algorithms to make docu-ment vectors is very long because of high dimensional Document-Term Matrix (DTM). In this paper, we proposed a document clustering method for optimizing dimension reduction using Singular Value Decomposition-Principal Component Analysis (SVDPCA) and Ant algorithms. SVDPCA reduces size of the DTM dimensions by converting freq-term of conventional DTM to score-pc of Document-PC Matrix (DPCM). Ant algorithms creates documents clustering using the vector space model based on the dimension reduction result of DPCM. The experimental results on 506 news documents in Indo-nesian language demonstrated that the proposed method worked well to optimize dimension reduction up to 99.7%. We could speed up execution time efficiently of the trial phase and maintain the best F-measure achieved from experiments was 0.88 (88%).
Klasterisasi dokumen berbasis algoritma semut merupakan metode klaster yang mengukur kemiripan dokumen teks berdasarkan pencarian rute terpendek antar node (trial phase) dan menentukan sejumlah klaster yang optimal dari urutan kemiripan dokumen (dividing phase). Waktu proses trial phase algoritma semut dalam mengolah vektor dokumen tergolong lama sebagai akibat tingginya dimensi, karena adanya masalah sparseness pada matriks Document-Term Matrix (DTM). Oleh karena itu, penelitian ini mengusulkan sebuah metode klasterisasi dokumen yang mengoptimalkan reduksi dimensi menggunakan Singular Value Decomposition-Principal Component Analysis (SVDPCA) dan Algoritma Semut. SVDPCA mereduksi ukuran dimensi DTM dengan mengkonversi bentuk freq-term DTM konvensional ke dalam bentuk score-pc Document-PC Matrix (DPCM). Kemudian, Algoritma Semut melakukan klasterisasi dokumen menggunakan vector space model yang dibangun berdasarkan DPCM hasil reduksi dimensi. Hasil uji coba dari 506 dokumen berita berbahasa Indonesia membuk-tikan bahwa metode yang diusulkan bekerja dengan baik untuk mengoptimalkan reduksi dimensi hingga 99,7%, sehingga secara efisien mampu mempercepat waktu eksekusi trial phase algoritma se-mut namun tetap mempertahankan akurasi F-measure mencapai 0,88 (88%)."
Surabaya: Institut Teknologi Sepuluh Nopember, Faculty of Information Technology, Department of Informatics Engineering, 2016
AJ-Pdf
Artikel Jurnal  Universitas Indonesia Library
cover
Arif Rakhman Hakim
"ABSTRAK
Watermarking merupakan teknik penyisipan data atau informasi yang bersifat rahasia ke dalam media data digital lainnya. Watermarking pada citra digital dibutuhkan sebagai perlindungan terhadap kepemilikan citra digital. Tujuan penelitian ini adalah merancang simulasi algoritma watermarking dengan menggunakan transformasi wavelet diskrit dari beberapa mother wavelet seperti diskrit meyer, daubechies, symlet, dan haar. Hasil pengujian penyisipan citra watermark dengan beberapa dimensi yang berbeda, citra watermark dengan dimensi 64 x 64 piksel memiliki hasil yang paling baik. Proses watermarking dengan dekomposisi yang paling baik pada percobaan ini terjadi pada dekomposisi satu level. Pengujian penyisipan watermark dengan sub-band LL,LH,HL, dan HH, didapat bahwa penyisipan pada sub-band LL memiliki nilai PSNR yang paling baik. Citra asli yang telah disisipkan dengan citra watermark juga di uji secara subjektif. Hasil dari citra yang terwatermark tidak dapat dideteksi secara langsung oleh koresponden karena perubahan citra terwatermark tidak jauh berbeda dengan citra asli. Pengujian citra terwatermark terhadap robustness dengan ?salt & pepper? terjadi penurunan kualitas citra yang sangat tinggi. Pengujian citra terwatermark terhadap robustness dengan AWGN, tidak banyak mempengaruhi kualitas citra terwatermark. Nilai power noise dari AWGN yang diujikan dari 10-40 db, dengan nilai maksimum power noise dari AWGN adalah 40 db. Dari hasil percobaan beberapa jenis keluarga wavelet yang paling baik adalah diskrit meyer.

ABSTRACT
Watermarking is a technique of embedding the data or information that is confidential to the other digital data media. Digital image watermarking is needed as a protection against the ownership of digital images. The purpose of this study is to design a simulated watermarking algorithm using discrete wavelet transform of a mother wavelet such as discrete meyer, daubechies, symlet, and haar. Test results with the embedding a watermark image several different dimensions, watermark image with dimensions of 64 x 64 pixels have the best result. The best decomposition process of watermarking in this study occurred at a single level of decomposition. Watermark embedding testing with sub-bands LL, LH, HL, and HH, found that the embedding in sub-band LL has the best PSNR values. The original image has been embedded with a watermark image was tested subjectively. The results of the watermarked image can not be detected directly by the correspondents because the change of watermarked image is not much different from the original image. The robustness of watermarking image with "salt and pepper" shows decrease in quality greatly. However, the test by adding the AWGN showed that the robustness did not affect the quality of watermarked image. The experimental result by varying power noise, ranged from 10 db to 40 db, with a maximum power noise of AWGN is 40 db. From the experimental results, the discrete meyer is the best type among the wavelet family."
Fakultas Teknik Universitas Indonesia, 2012
S43322
UI - Skripsi Open  Universitas Indonesia Library
cover
Pratama Amirullisan
"Kebutuhan terhadap Internet sudah sangat dirasakan, namun, akibat kurangnya kontrol dalam mengawasi kegiatan berselancar di dunia maya ini, menjadikan konten yang dapat merusak moral tersebar dengan sangat cepat dan begitu leluasa untuk diakses oleh setiap orang.
Penelitian ini membahas Analisa dan Rancang Bangun Sistem Deteksi Cepat Konten Web Negatif Berbasis Teks Menggunakan Random Sampling dan Latent Semantic Analysis dengan Algoritma Singular Value Decomposition yang bertujuan untuk mengklasifikasikan website-website berkonten negatif dengan langkah awal melakukan penelusuran terhadap link-link pada suatu website dengan teknik crawling oleh program web crawler untuk mengumpulkan konten website yang berupa teks. Seluruh konten teks yang telah dikumpulkan selanjutnya akan diklasifikasikan menggunakan metode Latent Semantic Analysis dengan menerapkan algoritma Singular Value Decomposition untuk menunjukkan hasil klasifikasi yang mampu membedakan antara website berkonten negatif dengan konten non-negatif. Pengujian dilakukan dengan menggunakan metode full sampling dan random sampling untuk menentukan cara pendeteksian website berkonten negatif yang lebih cepat.
Hasil pengujian pada penelitian ini menunjukkan bahwa metode Latent Semantic Analysis dengan algoritma Singular Value Decomposition berhasil mengklasifikasikan website berkonten negatif dengan batas persentase hasil klasifikasi sebesar 70% sebagai indikatornya, dan metode random sampling dengan pengambilan sample hanya 30% dari total telah berhasil meningkatkan kecepatan eksekusi program rata-rata sebesar 507.01%, dengan penurunan akurasi rata-rata hanya sebesar 27.19% dibandingkan dengan metode full sampling untuk website berkonten negatif.

The need of the Internet has been keenly felt, however, due to a lack of control in monitoring the activities of surfing in this virtual world, making contents that will damage the morale spread very quickly and so freely accessible to everyone.
This study discusses the Analysis and Design of Quick Detection System to Text-Based Negative Web Content Using Random Sampling and Latent Semantic Analysis with Singular Value Decomposition Algorithm which aims to classify negative content websites with the first step is to perform a search for links in a website using crawling technique by a web crawler program to gather website content in the text form. The entire text-based contents that have been collected will then be classified using Latent Semantic Analysis method by applying Singular Value Decomposition algorithm to show the result of classification that is able to distinguish the negative content and non-negative content website. The testing is performed using full sampling and random sampling method to determine which one is faster in doing the detection of negative content website.
The results of this study showed that Latent Semantic Analysis method with Singular Value Decomposition algorithm successfully classifies the negative content websites with the percentage of classification result by 70% as the indicator, and the random sampling method with only 30% of total samples has been successful in increasing the speed of program execution by an average of 507.01%, with decreasing accuracy by an average of only 27.19% compared to full sampling method for negative content websites.
"
Depok: Fakultas Teknik Universitas Indonesia, 2016
S66330
UI - Skripsi Membership  Universitas Indonesia Library
<<   1 2 3 4 5 6 7 8 9 10   >>