Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 12 dokumen yang sesuai dengan query
cover
Rasendriya Maheswari
"Teknologi microarray merupakan alat terapan ilmu bioinformatika dalam bidang biologi molekuler yang dapat menghasilkan suatu data ekspresi gen. Namun, pada data ekspresi gen sering ditemukan missing value yang dapat mengganggu proses analisis data. Untuk mengatasi masalah tersebut, missing value dapat diestimasi menggunakan teknik imputasi. Penelitian ini menggunakan metode NCBI-SSSim-QR yang merupakan metode imputasi biclustering berbasis Shifting-and-Scaling Similarity (SSSim) dan menggunakan regresi kuantil dalam mengestimasi missing values. Metode ini merupakan modifikasi dari metode NCBI-SSSim-LS yang menggunakan regresileast square dalam proses imputasinya. Regresi kuantil pada metode NCBI-SSSim-QR digunakan untuk menangani keberadaan outlier pada data karena regresi kuantil dapat menyesuaikan kemiringan distribusi data pada titik-titik kuantil tertentu. Pada penelitian ini, metode NCBI-SSSim-QR diimplementasikan pada data ekspresi gen kanker serviks yang mengandung outlier dan diujikan pada missing rate 5%, 10%, 15%, 20%, 25%, 30%, dan 35% dengan mekanisme MCAR (Missing Completely at Random) dalam pembentukan missing values. Terdapat beberapa titik kuantil yang diuji yaitu kuantil ke = 0,3, 0,4, 0,5, 0,6, 0,7 yang kemudian performanya dibandingkan dengan metode NCBI-SSSim-LS yang berbasis mean. Penelitian menunjukkan bahwa proses estimasi missing values pada data ekspresi gen kanker serviks paling baik dilakukan oleh metode NCBI-SSSim-QR dengan kuantil 0,5 berdasarkan nilai Root Mean Square Error (RMSE).

Microarray technology is a bioinformatics tools in molecular biology that capable for quantitating hundreds or thousands of gene transcripts called gene expression data. However, the presence of missing values is often found in gene expression data which can interfere the further analysis process. Therefore, imputation technique used for estimating missing values. This research used NCBI-SSSim-QR method which is a Shifting-and-Scaling Similarity (SSSim)-based biclustering imputation method using quantile regression to estimate the missing values. This method is a modification of the NCBI-SSSim-LS method that using the least square regression for imputation process. Quantile regression in the NCBI-SSSim-QR method is used to handle the presence of outliers in the data because quantile regression can follow the skewness of the data distribution at certain quantile points. In this research, the NCBI-SSSim-QR method will be implemented on cervical cancer gene expression data containing outliers and tested on missing rate of 5%, 10%, 15%, 20%, 25%, 30%, and 35% with MCAR (Missing Completely at Random) mechanism in generating missing values. There are several quantile points to be tested, = 0,3, 0,4, 0,5, 0,6, 0,7 which will then be compared with the NCBI-SSSim-LS method which is mean-based. The research shows that the estimation process for missing values in cervical cancer gene expression data is better estimated by NCBI-SSSim-QR method with a quantile of 0,5 based on the Root Mean Square Error (RMSE) value."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2022
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Ngantung Erland Jeremia
"Analisis regresi adalah salah satu metode yang digunakan dalam menganalisisdata. Metode yang sering digunakan untuk menaksir parameter dalam modelregresi linier adalah ordinary least square OLS. Metode OLS akan memberikantaksiran terbaik ketika semua asumsinya terpenuhi. Namun pada kenyataannya,asumsi tersebut seringkali tidak terpenuhi. Asumsi yang seringkali tidak terpenuhiadalah adanya multikolinieritas dan adanya pencilan outlier. Multikolinieritasakan membuat variansi taksiran parameter regresi menjadi sangat besar, sedangkanoutlier akan membuat taksiran parameter menjadi bias. Jika kedua pelanggaranasumsi ini terjadi pada data yang akan dianalisis digunakan robust jackknife ridgeregression. Robust jackknife ridge regression adalah regresi yang punya sifatrobust sehingga tidak terpengaruh oleh outlier dan menggunakan metode ridgeuntuk mengatasi masalah multikolinieritas serta menggunakan metode jackknifeuntuk mereduksi bias yang dihasilkan metode ridge. Metode yang digunakanuntuk mencapai sifat robust adalah MM-estimation sehingga taksiran yangdihasilkan punya breakdown point serta efficiency yang tinggi.

Regression Analysis is one of many methods used for analyzing data. Method thatusually used for estimating parameter in linear regression model is ordinary leastsquare OLS . OLS will give best estimator when all the assumptions are met. Butin reality, sometimes not all the assumptions are met. Assumptions that usuallyviolated are multicollinearity and outlier. Multicollinearity will make variance ofthe estimated parameter become large, while outlier will make the estimatedparameter become biased. If this two violation of assumptions happened, robustjackknife ridge regression is used. Robust jackknife ridge regression is regressionthat have robust property so that it will not affected by outlier and using ridgemethod to handle multicollinearity with jackknife method to reduce biased fromridge method. Method used to achieve robust property is MM estimation so thatthe estimated parameter have high breakdown point and high efficiency.
"
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2017
S68662
UI - Skripsi Membership  Universitas Indonesia Library
cover
Novrizal
"ABSTRAK
Prosesing data seismik menjadi tahapan yang penting dalam meningkatkan S/N ratio dan resolusi penampang seismik dalam metode seismik. Perkembangan metode-metode baru dalam prosesing data seismik perlu diuji efektivitasnya dan implikasinya pada keseluruhan alur prosesing data seismik. Outlier-Out Stack (OlO Stack) merupakan metode stacking baru yang dikembangkan oleh Rashed pada tahun 2016. Metode ini dinilai efektif dalam mengeliminasi sampel data dengan noise yang tinggi, atau yang dinilai sebagai pencilan, sehingga membuat proses stacking menjadi lebih optimum. Penggunaan OlO Stack dalam prosesing data seismik perlu dievaluasi lebih lanjut untuk meninjau efektivitasnya dalam mereduksi seismic noise dan melihat implikasinya terhadap keseluruhan alur prosesing data seismik. Penelitian terhadap penggunaan metode OlO Stack dalam prosesing data seismik yakni dengan membandingkannya terhadap 2 metode stacking lain, yakni Straight Mean Stack dan α-Trimmed Stack. Ketiga metode stacking diujikan pada data seismik 2D laut yang melalui serangkaian variasi alur prosesing. Hasil penelitian menunjukkan penggunaan OlO Stack yang mampu mereduksi kemunculan noise lebih baik dibandingkan kedua metode lain. Penggunaannya juga mampu menekan energi multiple yang tidak teratenuasi pada prosesing, serta dapat mencegah lapisan menjadi bergelombang akibat efek koreksi NMO yang kurang sempurna.

ABSTRACT
Seismic data processing is an important stage to improve S/N ratio and the seismic resolution in seismic method. The invention of new methods for seismic data processing needs to be examined for its effectiveness and its implications to the whole processes in seismic data processing.  Outliers-Out Stack (OlO Stack) is a new stacking method proposed by Rashed in 2016. This method is said to be effective in eliminating bad sample data, or the outliers, and improving stacking methods to the optimum. The application of OlO Stack in seismic data processing needs to be evaluated for more to examine its effectiveness to reduce seismic noise and to review the implications to the whole processing stages. The research of OlO Stack method application is by comparing it with 2 other stacking methods, Straight Mean Stack and α-Trimmed Stack. The three methods is applied to 2D seismic marine data, which have been varied at some processing stages. The results show that the application of OlO Stack in seismic data processing is effective to reduce the occurence of seismic noise better than 2 other methods. The application of the method is also good to suppress multiple energy which has not been attenuated in the processing, and also prevent the layers becoming wavy because of the effect of imperfect NMO correction.  "
2019
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
David Setiawan
"Dalam asuransi, risiko dipindahkan dari pemegang polis ke perusahaan asuransi dengan membayar kompensasi berupa premi. Salah satu metode yang dapat digunakan dalam menentukan besar premi yang harus dibayar adalah menggunakan teori kredibilitas. Pada teori kredibilitas, premi pada tahun yang akan datang dihitung menggunakan kombinasi dari data masa lalu pemegang polis dan data lain yang bersesuaian. Salah satu model kredibilitas yang telah dikembangkan adalah model kredibilitas Bühlmann dan model Bühlmann-Staub. Asumsi model ini adalah setiap pemegang polis memiliki karakter dan tingkat risiko yang berbeda-beda dan dikelompok berdasarkan parameter risiko. Pada praktiknya, data asuransi dapat dikelompok berdasarkan lebih dari satu parameter risiko. Pada tugas akhir ini dibahas perumuman dari model Bühlmann-Straub, yaitu model kredibilitas hierarki, dimana data portofolio asuransi dikelompokkan dengan lebih dari satu parameter risiko. Selain itu, dalam memprediksi besar tarif premi digunakan kuantil dari besar klaim kontrak, menggantikan mean dari besar klaim kontrak. Penggunaan kuantil disebabkan data asuransi cenderung berekor tebal, dimana tidak jarang terdapat klaim yang bersifat outlier. Pembentukan model kredibilitas kuantil hierarki dimulai dengan menentukan faktor kredibilitas untuk sektor dan kontrak yang meminimumkan mean squared error antara parameter yang digunakan untuk memprediksi tarif premi dengan penaksirnya. Untuk menghitung faktor kredibilitas, diperlukan nilai dari parameter struktural model, yang ditaksir menggunakan metode non-parametrik. Setelah mendapatkan taksiran dari parameter struktural model serta faktor kredibilitas untuk masing-masing sektor dan kontrak, tarif premi dapat ditentukan untuk masing-masing sektor dan kontrak. Kemudian, akan dilihat performa dari model ini apabila terdapat outlier pada data. Secara umum, model ini robust terhadap outlier untuk kuantil yang nilainya tidak mendekati satu.

In insurance, the risk is transferred from the policyholder to the insurance company with paying compensation in the form of premiums. One method that can be used to determine the amount of premium that to be paid is using the credibility theory. In credibility theory, future premiums can be determined with the combination of past data of policyholder and the other corresponding data. One of the the credibility models that has been developed are the Bühlmann credibility model and Bühlmann-Straub credibility model. This model assumes that each policyholder has a different characteristic and level of risk and can be group based on risk parameter. In practiced, the data of insurance can be grouped based on more than one risk parameter. This thesis discusses a generalization of the Bühlmann-Straub credibility model, that is hierarchical credibility model, which the data of insurance portofolio grouped with more than one risk parameter. In order to predict the premiums rate, the quantile of the contract claim amount is used, replacing the mean of the contract claim amount. The use of quantiles is due to the fact that insurance data tends to be thick-tailed, where outlier claims are not uncommon. The construction of the hierarchical quantile credibility model begins by determining the credibility factor for sectors and contracts that minimizes the mean squared error between the parameters used to predict premium rates and their estimators. To calculate the credibility factor, takes the value of the structural parameters of the model, which estimated using non-parametric methods. After obtaining estimation of the structural parameters of the model as well as the credibility factor for each sector and contract, premium rates can be determined for each sector and contract. Then, the performance of this model will be seen if there is outlier in the data. In general, this model will be robust against outliers for quantile values that are not too large."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2021
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Stevani Wijaya
"Dalam analisis data, saat data mempunyai outlier dan outlier yang ada bukan merupakan suatu kesalahan, taksiran parameter yang diperoleh dengan metode Ordinary Least Square (OLS) akan bias karena metode OLS tidak robust terhadap adanya outlier. Oleh karena itu, dicari metode lain yang robust terhadap adanya outlier, salah satunya ialah metode regresi robust dengan menggunakan fungsi Huber. Pada skripsi ini akan dibahas mengenai taksiran parameter pada model regresi robust sederhana dan berganda dengan menggunakan fungsi Huber. Selain itu, akan dibandingkan antara taksiran parameter model regresi robust dengan menggunakan fungsi Huber dan taksiran parameter yang didapat dengan metode OLS dilihat dari nilai effisiensi taksiran parameter. Hasil yang diperoleh dari contoh penerapan menunjukkan bahwa untuk data ada outlier taksiran parameter yang diperoleh dengan metode regresi robust dengan fungsi Huber lebih effisien dibandingkan metode OLS, sedangkan untuk data tanpa outlier taksiran parameter yang diperoleh dengan metode OLS lebih effisien dibandingkan metode regresi robust dengan fungsi Huber."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2009
S27712
UI - Skripsi Open  Universitas Indonesia Library
cover
cover
Rendya Yuschak
"Dalam era digital saat ini, banyaknya data finansial yang melimpah dan tidak berlabel menimbulkan tantangan dalam pemilihan teknik pendeteksian outlier (outlier detection) yang optimal. Penelitian ini bertujuan untuk menangani tantangan tersebut dengan membandingkan model unsupervised outlier detection pada data sintetis yang dirancang untuk meniru karakteristik data finansial nyata. Sebagai studi kasus, penelitian ini menggunakan data Laporan Harta Keuangan Penyelenggara Negara (LHKPN) tahun 2022. Proses penelitian mencakup pengumpulan data, pemrosesan, pembuatan data sintetis, pengujian sepuluh algoritma outlier detection, dan penerapan model terbaik pada data LHKPN tahun 2022. Dari proses ini, model Median Absolute Deviation (MAD) dengan threshold 7.8 teridentifikasi sebagai yang paling efektif pada data sintetis yang meniru data LHKPN. Penelitian ini juga menemukan hyperparameter terbaik untuk model lain dan melakukan analisis skor outlier pada data nyata. Hasilnya memberikan wawasan baru dan menunjukkan potensi investigasi lanjutan dalam outlier detection pada data finansial tidak berlabel, dengan pendekatan yang menyeluruh mulai dari analisis distribusi data hingga pengujian model pada data sintetis dan asli.

In the current digital era, the abundance of unlabeled financial data poses challenges in selecting optimal outlier detection techniques. This research aims to address these challenges by comparing unsupervised outlier detection models on synthetic data, designed to mimic real financial data characteristics. Using 2022 data from the Laporan Harta Keuangan Penyelenggara Negara (LHKPN) as a case study, the research process includes data collection, processing, creating synthetic data, testing 10 outlier detection algorithms, and applying the most effective model, identified as Median Absolute Deviation (MAD) with a threshold of 7.8, on synthetic data based on LHKPN data. The study also finds the best hyperparameters for other models and conducts real data outlier score analysis, providing new insights and demonstrating further investigation potential in outlier detection for unlabeled financial data."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2024
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Nurdin Kosasih
"Risiko adalah suatu kejadian atau tindakan yang berdampak negatif terhadap kemampuan lembaga untuk mencapai tujuan dan menentukan strategi. Salah satu pendekatan untuk mengukur risiko operasional adalah Advanced Measurement Approach (AMA), dimana bank diperkenankan untuk mengolah data internal dengan model yang dikembangkan secara internal. Dengan metode Loss Distribution Approach di AMA, bank mengestimasi dua fungsi distribusi probabilitas, yaitu distribusi frekuensi kerugian dan distribusi severitas kerugian tahunan pada setiap risiko. Selanjutnya, kedua fungsi distribusi tersebut digabungkan menjadi distribusi majemuk untuk menentukan value at risk masingmasing risiko menggunakan simulasi Monte Carlo pada tingkat kepercayaan 99,9%. Nilai risiko yang mungkin terjadi diluar estimasi distribusi severitas dapat mempengaruhi value at risk, sehingga dapat mempengaruhi prediksi rencana bisnis untuk tahun yang akan datang. Metode One-Class Support Vector Machine (SVM) dapat digunakan untuk mendeteksi data outlier tersebut. Dalam beberapa kasus, metode statistik tidak dapat mendeteksi data outlier. Selain itu, dalam menentukan data outlier tergantung pada seberapa penting informasi yang diperlukan dari data outlier tersebut, sehingga penentuannya bersifat subjektif. Adapun tujuan simulasi pada tulisan ini adalah melakukan analisis penggunaan metode One-Class SVM dalam mendeteksi outlier pada distribusi severitas dan pengaruh outlier pada perhitungan value at risk. Dari hasil analisis diperoleh data outlier yang mempengaruhi perhitungan value at risk.

Achieve its objectives and execute its strategies. One approach to measure operational risk is the Advanced Measurement Approach (AMA), which allows banks to process internal data with internally developed models. Under the Loss Distribution Approach in AMA, the bank estimates two distribution functions of the annual loss data to generate compound distribution to determine value at risk of each risk using Monte Carlo simulation at 99.9% confidence level. The risk amount that may occur outside of the estimated loss severity distribution can affect the value at risk, so that it can affect the prediction of business plan for the next years. In some cases, statistical methods cannot detect outliers and its determination is relatively subjective. The purpose of the simulations in this paper is to perform analysis of the use of One-Class SVM in detecting outliers in the loss severity distribution and the effect of the outliers on the value at risk. As a result, the outliers have successfully been detected in the loss severity distribution and there is the effect of the outliers on the value at risk."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2014
T39348
UI - Tesis Membership  Universitas Indonesia Library
cover
Desnu Anggara Suwardi
"Asuransi kendaraaan bermotor diharuskan membuat cadangan untuk memastikan bahwa perusahaan tersebut dapat memenuhi kewajibannya. Metode chain ladder adalah salah satu metode pencadangan klaim yang paling banyak digunakan. Akan tetapi, metode chain ladder ini rentan terhadap outlier. Karya akhir ini fokus pada pencadangan klaim yang resisten terhadap data outlier dengan menggunakan metode robust chain ladder. Ada dua tahapan dalam merobust metode chain ladder, tahap pertama yaitu mendeteksi data outlier dengan menggunakan median sebagai development faktor dan kemudian memodifikasi nilai dari outlier tersebut. Langkah kedua adalah mengaplikasikan metode chain ladder klasik pada data yang telah dilakukan modifikasi tersebut. Studi ini menunjukan bahwa metode robust chain ladder memberikan hasil yang lebih baik dibandingkan dengan chain ladder klasik.

in a motor vehicle insurance business an insurer needs to build up a reserve to ensure the company can fulfill its obligation. Chain ladder is one of the most widely used method in claim reserving. However, chain ladder method is very vulnerable to outlier. This study focused on claim reserving that resistant to outlier data by using robust chain ladder. There are two step to robustify chain ladder method. The first step is to detect outlier by using median as development factor to compute the residual, and adjust the outlying values. The second step is apply a classic chain ladder method to the adjusted data. This study show that robust chain ladder has a better result than a standard chain ladder method."
Depok: Fakultas Ekonomi dan Bisnis Universitas Indonesia, 2019
T54643
UI - Tesis Membership  Universitas Indonesia Library
cover
Diah Desita Damayanti
"Penelitian ini mengkaji tentang analisis dari dampak kebijakan imigrasi Amerika Serikat pada imigran Korea Selatan terhadap pertumbuhan ekonomi di wilayah barat Amerika Serikat dengan menggunakan model proyeksi kebijakan dan menjelaskan negara bagian mana yang berpotensi meningkatkan perekonomian. Data kuantitatif yang digunakan adalah data penduduk wilayah barat Amerika Serikat per County, jumlah imigran Korea Selatan per County, dan pertumbuhan pendapatan per kapita per County. Sementara itu, data kualitatif yang digunakan berupa berbagai literatur seperti berita internasional, jurnal ilmiah, publikasi pemerintah, dan laporan tentang imigrasi di Amerika Serikat seperti kebijakan, proses imigrasi, pertumbuhan ekonomi, dan imigran Korea Selatan yang tinggal di barat. wilayah Amerika Serikat. Metode yang digunakan adalah metode campuran kongruen dengan mengumpulkan dan menggabungkan data kuantitatif dan kualitatif serta memperoleh informasi dari proses interpretasi. Sisi kuantitatif menggunakan uji statistik imigran Korea Selatan terhadap pertumbuhan ekonomi dan menggunakan analisis cluster-outlier dalam GIS. Sedangkan dari segi kualitatif, hasil uji kuantitatif akan dijabarkan dengan data kualitatif dengan cara interpretasi & triangulasi data secara keseluruhan. Hasil yang diperoleh didasarkan pada jumlah imigran Korea Selatan tertinggi dimana jumlah imigran yang tinggi berdampak pada cluster dan outlier dengan nilai pendapatan per kapita yang tinggi di setiap county di wilayah barat Amerika Serikat serta dari sumber bacaan. Dari segi validitas, terdapat kecenderungan di tiga lokasi, yaitu Los Angeles dan Santa Clara di California, di mana mayoritas imigran bekerja sebagai pebisnis, Honolulu di Hawaii, sebagian besar imigran bekerja sebagai petani tebu, dan King di Washington. , sebagian besar pendatang bekerja sebagai pekerja seni dan mahasiswa.

This study examines the analysis of the impact of the United States immigration policy on South Korean immigrants on economic growth in the western area of the United States by using a policy projection model and explains which states have the potential to increase the economy. The quantitative data used are population data of the western area of the United States per County, the number of South Korean immigrants per County, and the growth of income per capita per County. While the qualitative data is in the form of various kinds of literature such as international news, scientific journals, government publications, and reports on immigration in the United States such as policies, immigration processes, economic growth, and South Korean immigrants living in the western area of the United States. The method used is a congruent mixed method by collecting and combining quantitative and qualitative data as well as obtaining information from the interpretation process. The quantitative side uses a statistical test of South Korean immigrants on economic growth and uses cluster-outlier analysis in the GIS. Meanwhile, in terms of qualitative, quantitative test results will be elaborated with qualitative data by way of interpretation & triangulation of data as a whole. The results obtained are based on the highest number of South Korean immigrants where the high number of immigrants has an impact on clusters and outliers with high per capita income values in each county in the western area of the United States as well as from reading sources. In terms of validity, there is a tendency for three locations, these are Los Angeles and Santa Clara in California, where the majority of immigrants work as businesspeople, Honolulu in Hawaii, most of the immigrants work as sugarcane farmers, and King in Washington, most of the immigrants work as art workers and students."
Jakarta: Sekolah Kajian Strategik dan Global Universitas Indonesia, 2021
T-pdf
UI - Tesis Membership  Universitas Indonesia Library
<<   1 2   >>