Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 131282 dokumen yang sesuai dengan query
cover
Nurul Haliza Amalia Putri
"Penentuan premi secara tepat merupakan tugas penting bagi perusahaan asuransi. Penentuan premi pada asuransi non-jiwa dihitung dari estimasi kerugian agregat yang didasari pada frekuensi (banyaknya) klaim dan severitas (besarnya) klaim. Kerugian agregat dapat diestimasi dengan model risiko kolektif yang mengasumsikan bahwa frekuensi klaim dan severitas klaim saling bebas. Pada praktiknya, ditemukan kondisi di mana frekuensi klaim dan severitas klaim saling bergantung (dependen). Untuk menghasilkan penentuan premi yang akurat, ketergantungan antara frekuensi klaim dan severitas klaim perlu diperhatikan. Dalam penelitian ini dilakukan pemodelan dependensi frekuensi klaim dan rata-rata severitas klaim menggunakan copula karena fleksibilitasnya dalam membangun distribusi bersama dari dua variabel acak yang dapat berasal dari distribusi berbeda. Pada beberapa kasus ditemukan bahwa besar kerugian juga dipengaruhi oleh beberapa faktor risiko (kovariat). Salah satu metode dalam membangun distribusi bersama dari dua variabel acak yang berasal dari distribusi berbeda dengan memerhatikan kovariat adalah dengan menggunakan model copula berbasis regresi. Hal tersebut dilakukan dengan mengkonstruksi dua Generalized Linear Model (GLM) terlebih dahulu, yaitu dengan variabel respons frekuensi klaim dan rata-rata severitas klaim. Kemudian model copula berbasis regresi berperan dalam menghubungkan kedua GLM dari frekuensi klaim dan rata-rata severitas klaim. Penelitian ini menggunakan pendekatan lain yaitu dengan menggunakan variabel acak kontinu waktu tunggu antar klaim sebagai representasi dari frekuensi klaim, sehingga aspek yang diperhatikan bukan hanya banyaknya klaim yang terjadi namun juga kapan klaim tersebut terjadi. Copula yang digunakan ialah copula Gaussian dan parameter dependensi diestimasi menggunakan metode Inference Function for Margin (IFM). Berdasarkan implementasi pemodelan dependensi antara frekuensi klaim dan rata-rata severitas klaim berdasarkan waktu tunggu antar klaim pada data ausprivauto0405, diperoleh informasi bahwa terdapat ketergantungan positif antara frekuensi klaim dengan rata-rata severitas klaim. Dari implementasi model yang sudah dibentuk pun diperoleh bahwa nilai ekspektasi total kerugian yang dihitung berdasarkan asumsi dependensi antara frekuensi klaim dan rata-rata severitas klaim lebih besar dibandingkan dengan nilai ekspektasi total kerugian berdasarkan asumsi independensi.

Determining the accurate premium is a crucial task for insurance companies. The determination of non-life insurance premium is calculated from the aggregate loss estimation based on claim frequency and claim severity. Aggregate losses can be estimated with a collective risk model that assumes independence between claim frequency and claim severity. In practice, there are found conditions where claim frequency and claim severity are dependent. To achieve an accurate premium determination, the dependence between claim frequency and claim severity needs to be considered. This research applies dependence modelling using copula due to its flexibility in costructiong a joint distribution of two random variables that may originate from different distributions. In some cases, the amount of losses is also influenced by several risk factors (covariates). One method for constructing a joint distribution of two random variables from different distributions while considering covariates is to use a copula-based regression model. This is done by constructing two Generalized Linear Models (GLM), one for claim frequency and another one for average claim severity. Then the copula-based regression model plays a role in connecting the two GLMs of claim frequency and average claim severity. This research introduces an alternative approach by using a continuous random variable, waiting time between claims, as a representation of claim frequency. This approach considers not only the number of claims but also the time when these claims occur. The copula used is a Gaussian copula and the dependen parameter is estimated using the Inference Functions for Margin (IFM) method. Based on the implementation of dependency modeling between claim frequency and average claim severity based on waiting time between claims on ausprivauto0405 data, it is obtained that there is a positive dependency between claim frequency and average claim severity. The implemented model also reveals that the total expected loss calculated based on the assumption of dependence between claim frequency and average claim severity is higher than the total expected loss under the independence assumption."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Arief Rahman Setiawan
"Perusahaan asuransi adalah perusahaan yang menyediakan jasa agar nasabahnya dapat mentransfer risiko sehingga terdapat banyak risiko yang harus ditanggung oleh perusahaan. Oleh karena itu, perusahaan asuransi perlu menghitung klaim agregat agar perusahaan dapat memperkirakan berapa banyak klaim yang harus ditanggung sekaligus menentukan premi yang sesuai untuk nasabah. Klaim agregat dapat dihitung dengan menggunakan dua komponen, yaitu frekuensi dan severitas klaim. Pada umumnya, frekuensi dan severitas klaim diasumsikan independen atau saling bebas. Hal tersebut bertujuan agar perhitungan total klaim dapat dilakukan dengan mudah. Namun, frekuensi dan severitas klaim umumnya saling bergantung di kehidupan nyata, sehingga apabila asumsi independen antara frekuensi dan severitas klaim terus digunakan, maka perhitungan klaim agregat menjadi kurang tepat. Oleh karena itu, penelitian ini akan menggunakan asumsi bahwa terdapat dependensi antara frekuensi dan rata-rata severitas klaim untuk memodelkan klaim agregat dengan menggunakan distribusi bivariat Sarmanov. Distribusi bivariat Sarmanov dapat digunakan untuk mengukur dependensi positif maupun negatif antara frekuensi dan rata-rata severitas klaim dengan menghitung nilai dependensi Sarmanov. Pada skripsi ini, akan dijabarkan kasus khusus distribusi bivariat Sarmanov, di mana frekuensi klaim diasumsikan mengikuti distribusi Poisson dan Zero-Inflated Poisson, sedangkan rata-rata severitasnya diasumsikan berdistribusi Gamma. Berdasarkan data ilustrasi yang digunakan, didapatkan bahwa distribusi Zero-Inflated Poisson lebih cocok untuk memodelkan frekuensi klaim. Oleh karena itu, distribusi bivariat Sarmanov-nya dibangun berdasarkan distribusi Zero-Inflated Poisson dan distribusi Gamma. Kemudian, parameter distribusi bivariat Sarmanov diestimasi menggunakan MLE. Model yang diperoleh selanjutnya digunakan untuk mengestimasi premi murni dengan cara menghitung ekspektasi klaim agregat dan didapatkan nilai premi murni sebesar $180,8335.

An insurance company is a company that provides services so that its customers can transfer risks so that there are many risks that must be borne by the company. Therefore, insurance companies need to calculate aggregate claims so that the company can estimate how many claims must be covered while determining the appropriate premium for customers. Aggregate claims can be calculated using two components, namely frequency and severity of claims. In general, the frequency and severity of claims are assumed to be independent of each other. It is intended that the calculation of total claims can be done easily. However, the frequency and severity of claims generally depend on each other in real life, so that if the independent assumption between the frequency and severity of claims continues to be used, then the calculation of aggregate claims becomes less precise. Therefore, this study will use the assumption that there is a dependency between the frequency and the average severity of claims to model aggregate claims using the bivariate Sarmanov distribution. The bivariate Sarmanov distribution can be used to measure the positive and negative dependencies between the frequency and the average severity of claims by calculating the Sarmanov dependency value. In this thesis, a special case of the bivariate Sarmanov distribution will be described, where the frequency of claims is assumed to follow the Poisson distribution and Zero-Inflated Poisson distribution, while the average severity is assumed to be Gamma distribution. Based on the illustrative data used, it is found that the Zero-Inflated Poisson distribution is more suitable for modeling claim frequency. Therefore, the bivariate Sarmanov distribution is built on the basis of the Zero-Inflated Poisson distribution and the Gamma distribution. Then, the parameters of the bivariate Sarmanov distribution were estimated using MLE. The model obtained is then used to estimate pure premiums by calculating aggregate claims expectations and obtains a pure premium value of $180,8335."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Christensen, Ronald
New York: Springer-Verlag, 1990
519.5 CHR l
Buku Teks SO  Universitas Indonesia Library
cover
Shabrul Jamil
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2007
S27754
UI - Skripsi Membership  Universitas Indonesia Library
cover
Fahrmeir, Ludwig
New York: Springer-Verlag, 1994
519.535 FAH m (1)
Buku Teks SO  Universitas Indonesia Library
cover
Schuermans, Stefan
"This book describes a flexible and largely automated methodology for adding the estimation of power consumption to high level simulations at the electronic system level (ESL). This method enables the inclusion of power consumption considerations from the very start of a design. This ability can help designers of electronic systems to create devices with low power consumption. The authors also demonstrate the implementation of the method, using the popular ESL language SystemC. This implementation enables most existing SystemC ESL simulations for power estimation with very little manual work. Extensive case-studies of a Network on Chip communication architecture and a dual-core application processor ARM Cortex-A9 showcase the applicability and accuracy of the method to different types of electronic devices. The evaluation compares various trade-offs regarding amount of manual work, types of ESL models, achieved estimation accuracy and impact on the simulation speed.
Describes a flexible and largely automated ESL power estimation method;
Shows implementation of power estimation methodology in SystemC;
Uses two extensive case studies to demonstrate method introduced."
Switzerland: Springer Nature, 2019
e20509375
eBooks  Universitas Indonesia Library
cover
Kirana Alfatianisa
"Tindak kecurangan mahasiswa menjadi suatu masalah dalam penggunaan aplikasi e-Assessment untuk melaksanakan ujian online dalam masa pandemi COVID-19. Oleh karena itu, dibutuhkan suatu aplikasi e-Assessment yang dapat mengatasi masalah tersebut. Penelitian ini bertujuan untuk mengembangkan aplikasi e-Assessment bernama Lexam sebagai salah satu rekomendasi solusi dari masalah tersebut. Selain untuk mengatasi masalah tindak kecurangan, aplikasi Lexam juga dirancang untuk dapat dioperasikan dengan mudah sehingga perlu diperhatikan aspek usability dalam sistemnya. User-Centered Design (UCD) digunakan sebagai metodologi untuk memaksimalkan aspek usability aplikasi Lexam. Setelah dievaluasi dengan menggunakan Usability Testing (UT) dan pengukuran usability secara keseluruhan dengan metrik System Usability Scale (SUS), diperoleh hasil rata-rata skor SUS 73.33 untuk modul dosen, serta 93.33 untuk modul alat ujian. Berdasarkan penemuan kebutuhan aplikasi Lexam modul dosen, diperoleh 23 kebutuhan aplikasi untuk melakukan manajemen pengguna, bank soal, dan ujian oleh dosen. Sedangkan pada modul alat ujian, diperoleh 4 kebutuhan aplikasi untuk dapat melakukan pengerjaan ujian oleh mahasiswa. Untuk dapat mengimplementasi 27 kebutuhan aplikasi tersebut, diperlukan sistem backend untuk melayani dan memproses kebutuhan yang ada, serta sistem frontend yang digunakan sebagai tampilan untuk interaksi antara pengguna dan sistem. Pengembangan backend dimulai dengan tahapan desain pengembangan aplikasi. Pengembangan backend dimulai dengan desain pengembangan aplikasi, didapatkan 53 activity diagram untuk memenuhi kebutuhan modul dosen dan 64 sequence diagram untuk memenuhi kebutuhan modul alat ujian. Selain itu, dilakukan perancangan database schema diagram dan class diagram aplikasi. Kemudian implementasi backend aplikasi dilakukan berdasarkan desain perancangan yang telah dibuat. Setelah implementasi backend aplikasi, dilakukan implementasi frontend aplikasi berdasarkan solusi desain yang dibuat. Implementasi frontend aplikasi menghasilkan 5 halaman utama yang memenuhi kebutuhan modul dosen dan 2 halaman utama yang memenuhi kebutuhan modul alat ujian. Berdasarkan penelitian ini diperoleh sebuah aplikasi e-Assessment bernama Lexam untuk sebagai rekomendasi solusi untuk mengatasi tindak kecurangan yang dilakukan oleh mahasiswa dalam melaksanakan ujian online.

Cheating is a problem among students in using e-Assessment applications to conduct online exams during the COVID-19 pandemic. Therefore, an e-Assessment application is needed that can overcome this problem. This research aims to develop an e-Assessment application called Lexam as one of the recommended solutions to the problem. In addition to overcoming the problem of cheating, the Lexam application is also designed to be operated easily, so that usability aspects need to be considered in the system. User-Centered Design (UCD) is used as a methodology to maximize the usability aspects of the Lexam application. After being evaluated using Usability Testing (UT) and measuring overall usability with the System Usability Scale (SUS) metric, the results obtained an average SUS score of 73.33 for the lecturer module, and 93.33 for the exam tool module. Based on the discovery of the requirements for the lecturer module, 23 application requirements were obtained to perform user management, question banks, and exams by lecturers. While in the exam tool module, 4 application needs are obtained to be able to do exam work by students. To be able to implement the 27 application needs, a backend system is needed to serve and process existing needs, as well as a frontend system that is used as a display for interaction between users and the system. Backend development begins with the application development design stage. Backend development begins with application development design, 53 activity diagrams are obtained to meet the needs of the lecturer module and 64 sequence diagrams to meet the needs of the exam tool module. In addition, the database schema diagram and class diagram of the application were designed. Then the backend application implementation is carried out based on the design design that has been made. After the backend implementation of the application, the frontend implementation of the application is carried out based on the design solution made. The implementation of the application frontend produces 5 main pages that meet the needs of the lecturer module and 2 main pages that meet the needs of the exam tool module. Based on this research, an e-Assessment application named Lexam is obtained as a recommended solution to overcome cheating committed by students in carrying out online examinations."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2022
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Sitesh Suresh Bhojwani
"Asuransi merupakan suatu kebutuhan yang penting di kehidupan manusia, bahkan asuransi termasuk dalam tingkatan kedua pada piramida perencanaan keuangan. Hal ini menunjukkan pentingnya asuransi sebagai salah satu produk yang dapat mengalihkan risiko yang mungkin dihadapi pada masa yang akan datang. Dua komponen penting dari asuransi adalah premi dan besar klaim. Besaran dua komponen itulah yang menjadi dasar untuk memodelkan kerugian yang mungkin dihadapi oleh perusahaan asuransi di masa yang akan datang. Secara umum, premi dan besar klaim dianggap saling bebas, tetapi dalam praktiknya hal ini kurang tepat karena mungkin kedua komponen tersebut dependen satu dengan yang lainnya. Dependensi ini menjadi perhatian karena pada praktiknya premi yang besar menghasilkan klaim yang besar dan premi yang kecil menghasilkan premi yang kecil. Dependensi antara premi dan besar klaim dimodelkan dengan distribusi bivariat, yaitu distribusi bivariat Sarmanov. Distribusi tersebut digunakan untuk membangun model Cramér-Lundberg yang memodelkan surplus yang dibutuhkan oleh suatu perusahaan asuransi agar tidak mengalami rutin. Model Cramér-Lundberg melibatkan tiga komponen utama, yaitu initial surplus, besar premi, dan besar klaim. Setelah mempertimbangkan dependensi antara premi dan besar klaim, dilakukan perhitungan probabilitas terjadinya ruin dan Value-at-Risk (VaR). Hasil yang didapatkan adalah bahwa distribusi bivariat Sarmanov dapat menjadi salah satu alternatif untuk memodelkan dependensi antara premi dan besar klaim. Nilai probabilitas ruin dan Value-at-Risk (VaR) dapat memberikan informasi bagi perusahaan asuransi untuk memprediksi kemungkinan perusahaan asuransi bangkrut dan uang yang harus disediakan agar kondisi ruin memiliki probabilitas yang sangat kecil untuk terjadi.

Insurance is an important need in human life, it is considered the second basic need in the financial planning pyramid. This shows how important insurance is as a product to transfer risks that someone might face in the future. Two important components in insurance are the amount of premium and the size of a claim. That two components is the basic concept to model the losses of the insurance company that may take place in the future. In general, the amount of premium and the size of claim are considered to be independent of each other, but in practice, this might not be true. Dependency between the amount of premium and size of claim is more reliable because large premiums result to high claim and so for the small premium result to small claims. Dependency among the amount of premium and the size of claim is be modeled through a bivariate distribution, specifically Sarmanov’s bivariate distribution. Implementation of dependency between the amount of premium and size of claim is implemented to Cramér-Lundberg model which shows how much surplus is needed so the insurance company doesn’t encounter ruin. The Cramér-Lundberg model involves three main component, such as initial surplus, the amount of premium and the size of claim. After considering the dependency among premiums and claims, the probability of ruin and Value-at-Risk (VaR) is calculated. In result, Sarmanov’s bivariate distribution can become one of the alternatives to consider the dependency between the amount of premium and the size of claim. The value of ruin probability and Value-at-Risk (VaR) can give information to insurance company to predict chances it becomes ruin and money needed to be secured so the ruin probability can be minimalized."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2022
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Joyce Eliza Tiurmauli
"Pada penelitian ini akan dijelaskan sebuah distribusi yang bernama distribusi Beta Pareto. Distribusi tersebut merupakan distribusi yang dibangun oleh distribusi Beta-Generated dengan mengkombinasikan distribusi Beta dan distribusi Pareto. Selain proses pembentukan distribusi Beta Pareto, karakteristik distribusi Beta Pareto yang meliputi fungsi kepadatan peluang, fungsi ditribusi, momen ke-r, momen sentral ke-r, mean, variansi, perilaku limit, serta karakteristik lainnya dari distribusi Beta Pareto juga akan dibahas pada penelitian ini. Distribusi Beta Pareto sendiri memiliki kelebihan pada fungsi kepadatan probabilitas nya yang berbentuk monoton turun dan unimodal. Selain itu, distribusi ini juga dapat memodelkan data yang heavy-tailed. Untuk penaksiran parameter dari distribusi Beta Pareto akan digunakan metode Maximum Likelihood Estimation dan hasil akhirnya akan diperoleh dengan metode numerik. Sebagai ilustrasi, akan digunakan data severitas klaim dari asuransi kendaraan bermotor yang akan dimodelkan dengan distribusi Beta Pareto. Akan ditunjukkan dengan perbandingan nilai AIC dan BIC bahwa distribusi Beta Pareto mampu memodelkan data severitas klaim dari asuransi kendaraan bermotor lebih baik dari distribusi Pareto.

In this study, a distribution called the Beta Pareto distribution will be introduced. This distribution is a distribution builtby the Beta-Generated distribution by combining the Beta distribution and the Pareto distribution. In addition, beside the process of forming the Beta Pareto distribution, the characteristics of the Beta Pareto distribution which include theprobability density function, distribution function, rth moment, rth central moment, mean, variance, behavior limit, and other characteristics of the Beta Pareto distribution will also be explained in this research. The Beta Pareto distribution itself has the advantage of its probability density function which not only have decreasing shape but also unimodal. In addition, this distribution can also model heavy-tailed data. The Maximum Likelihood Estimation method will be used to estimate the parameters of the Beta Pareto distribution and the final result will be obtained by a numerical method. As an illustration, the severity of motor vehicle insurance claims data will be used and will be modeled by the Beta Pareto distribution. It will be shown by a comparison of AIC and BIC values that the Beta Pareto distribution is able to model the the severity of motor vehicle insurance claims data better than the Pareto distribution."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Muhammad Arief Fauzan
"Tren kenaikan frekuensi dan severitas klaim untuk klaim asuransi kendaraan bermotor menyebabkan dibutuhkannya metode otomatisasi baru untuk memprediksi probabilitas seorang pemegang asuransi kendaraan akan mengajukan klaim jika diberikan data historis mengenai pemegang asuransi tersebut, agar perusahaan asuransi dapat memilah dan memproses lebih lanjut para pemegang polis yang kemungkinan mengajukan klaimnya tinggi. Masalah ini dapat diselesaikan dengan berbagai metode, salah satunya dengan machine learning, yang mengkategorisasikan masalah tersebut sebagai masalah supervised learning. Volume data yang besar dan banyaknya kemungkinan adanya missing values pada data pemegang asuransi menjadi dua aspek yang mempengaruhi pemilihan model machine learning yang tepat. XGBoost merupakan model gradient boosting machine learning baru yang dapat mengatasi missing value dan volume data besar sehingga XGBoost diklaim merupakan metode yang tepat untuk digunakan pada masalah tersebut. Dalam skripsi ini akan diaplikasikan metode XGBoost kepada masalah ini, dan akan dibandingkan hasilnya dengan berbagai metode machine learning lainnya, seperti AdaBoost, Stochastic Gradient Boosting, Random Forest, Neural Network, dan Logistic Regression.

The increasing trend of claim frequency and claim severity for auto-insurance result in a need of new methods to predict whether a policyholder will file an auto-insurance claim or not, given historical data about said policyholder, so that insurance industries can further process policyholders with high claim probability. This problem can be solved with many methods, one of which is machine learning, which categorizes this problem as a supervised learning problem. The high data volume and the existence of missing values on a policyholders historical data are aspects that the chosen machine learning model must be able to handle. XGBoost is a novel gradient boosting machine learning problem that is able to inherently handle missing values and high volume of data, which should make the model suitable for this problem. In this thesis, XGBoost will be applied to this problem, and its performance will be compared by other machine learning models, such as AdaBoost, Stochastic Gradient Boosting, Random Forest, Neural Network, and Logistic Regression."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2018
S-Pdf
UI - Skripsi Membership  Universitas Indonesia Library
<<   1 2 3 4 5 6 7 8 9 10   >>