Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 177622 dokumen yang sesuai dengan query
cover
Teresa Yubilea Koswari
"Asuransi merupakan bentuk pengalihan risiko dengan cara mendistribusikan risiko individu menjadi risiko kolektif. Pemasukan utama perusahaan asuransi adalah dari penjualan polis asuransi. Metode penjualan yang lazim digunakan pada asuransi maupun industri finansial lainnya adalah cross-selling. Cross-selling adalah proses menawarkan produk tambahan kepada orang yang sudah menjadi pelanggan perusahaan yang bersangkutan. Sangat penting bagi perusahaan asuransi untuk memiliki kemampuan memprediksi secara akurat karakteristik calon pelanggan yang sekiranya akan tertarik membeli suatu produk yang sedang ingin dipasarkan. Untuk dapat mengetahui karakteristik pelanggan potensial berdasarkan data perusahaan yang pada umumnya berskala besar, diusulkan untuk menggunakan machine learning. Hingga saat ini, metode machine learning yang  populer digunakan untuk mengolah data tabular adalah XGBoost. Pada penelitian ini, digunakan metode XGBoost untuk memprediksi hasil cross-selling produk asuransi dan kemudian dibandingkan dengan metode berbasis pohon lainnya, yaitu Decision Tree dan Random Forest, dari segi sensitivity, specificity, dan AUC-ROC. Diperoleh bahwa XGBoost unggul pada metrik specificity dan AUC-ROC. Selanjutnya, hasil simulasi terbaik dari setiap model diinterpretasikan menggunakan feature importance berdasarkan gain agar diperoleh fitur yang menjadi faktor penting dalam memprediksi cross-selling asuransi. Dengan adanya tahap interpretasi ini, diharapkan metode yang digunakan pada penelitian ini dapat diterima dan berguna bagi industri asuransi.

Insurance is a form of risk transfer by distributing individual risks into collective risks. The main income of insurance companies is from the sale of insurance policies. The sales method commonly used in the insurance and other financial industries is cross-selling. Cross-selling is the process of offering additional products to existing customers of the company. It is very important for insurance companies to have the ability to accurately predict the characteristics of potential customers who will be interested in buying a product that is being marketed. To find out the characteristics of potential customers based on company’s data, which are generally in large scale, it is proposed to use machine learning method. Until now, the most popular machine learning method used to process tabular data is XGBoost. In this study, the XGBoost method was used to predict cross-selling results of insurance products and then compared with other tree-based models, the Decision Tree and Random Forest, in terms of sensitivity, specificity, and AUC-ROC. It was found that XGBoost excels in specificity and AUC-ROC metrics. Furthermore, the best simulation results from each model are interpreted using feature importance based on gain to obtain features that are important factors in predicting insurance cross-selling. So, with this interpretation step done, it is hoped that the method used in this study can be accepted and useful for the insurance industry.
"
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Muhammad Adli Rahmat Solihin
"Industri asuransi merupakan industri yang besar dan terus berkembang di Indonesia. Di tambah lagi, semakin banyak masyarakat Indonesia yang terlindungi oleh asuransi pada tahun 2022. Di samping itu, meningkatnya nasabah asuransi juga dapat meningkatkan risiko terjadinya fraud atau kecurangan pada setiap klaim yang dilakukan nasabah. Hal tersebut dapat menyebabkan kerugian bagi perusahaan asuransi. Maka dari itu, dibutuhkan suatu metode yang dapat menyelesaikan masalah fraud klaim asuransi. Namun, permasalahan fraud ini melibatkan data yang besar sehingga dibutuhkan metode yang dapat memproses data besar dengan cepat dan tidak membutuhkan dana yang besar. Machine learning diajukan sebagai metode untuk dapat mendeteksi fraud klaim asuransi dan telah digunakan dalam beberapa penelitian untuk penyelesaian masalah tersebut. Extreme Gradient Boosting (XGBoost) merupakan salah satu metode machine learning yang banyak digunakan, pertama kali diajukan sebagai model yang scalable sehingga dapat memproses data besar secara efisien. Namun, metode machine learning sebaiknya adalah model yang interpretable dan explainable. Dengan memiliki interpretability dan explainability, suatu model dapat digunakan dan dimengerti dengan baik sehingga sangat reliabel. Oleh karena itu, Approximating XGBoost diajukan sebagai metode yang dapat memungkinkan XGBoost yang terdiri dari banyak boosted Decision Tree dapat diekstrak menjadi satu Decision Tree saja sehingga model ini dapat diinterpretasikan secara transparan mengenai pekerjaan model tersebut dalam mendapatkan hasil yang dikeluarkan. Penelitian ini menemukan bahwa kinerja dari model Approximating XGBoost dapat mendeteksi fraud dengan AUC-ROC mencapai nilai 91,44%, pada specificity dapat mencapai 86,55%, dan pada sensitivity dapat mencapai 91,34% berdasarkan dataset yang digunakan. Artinya, model Approximating XGBoost dapat membentuk suatu model yang performanya mengaproksimasi XGBoost dan dapat model pohonnya dapat ditampilkan seperti Decision Tree.

The insurance industry is a big and growing industry in Indonesia. Moreover, more and
more Indonesians will be covered by insurance by 2022. In addition, increasing the
number of insurers can also increase the risk of fraud or fraud in any claim made by the
insurer. So from that, we need a method that can solve the problem of insurance claims
fraud. However, this problem of fraud involves big data so it requires a method that can
process big data quickly and does not require large funds. Machine learning was proposed
as a method to detect insurance claims fraud and has been used in some research to solve
such problems. Extreme Gradient Boosting (XGBoost) is one of the most widely used
machine learning methods, first proposed as a scalable model to process big data
efficiently. However, machine learning methods are preferably models that are
interpretable and explainable. By having interpretability and explainability, a model can
be used and understood well so it is highly reliable. Therefore, Approximating XGBoost
was proposed as a method that could enable XGBoost consisting of many boosted
decision trees to be extracted into a single decision tree only so that this model can be
interpreted transparently about the work of the model in obtaining the outcome issued.
This study found that the performance of the Approximating XGBoost model can detect
fraud with an AUC-ROC of 91.44%, specificity can reach 86.55%, and sensitivity can
91.34% based on the data set used. In other words, the XGBoost Approximating model
can form a model whose performance approximates XGBuost and the tree model can be
displayed like a Decision Tree.
"
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2024
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Deandra Aulia Rusdah
"Prediksi klaim dan prediksi risiko asuransi dilakukan untuk mengklasifikasikan klaim dan tingkat risiko dalam industri asuransi. Dari sudut pandang pembelajaran mesin, masalah prediksi klaim merupakan klasifikasi dua kelas dan masalah prediksi risiko adalah klasifikasi multi-kelas. Untuk mengklasifikasikan klaim dan risiko, model pembelajaran mesin akan memprediksi berdasarkan data historis. Dalam data historis pemohon asuransi, akan ada kemungkinan nilai yang hilang (missing values) sehingga perlu untuk mengatasi masalah tersebut agar memberikan kinerja yang lebih baik. XGBoost adalah metode pembelajaran mesin yang banyak digunakan untuk masalah klasifikasi dan dapat menangani nilai yang hilang (missing values) tanpa dilakukan proses imputasi terlebih dahulu. Penelitian ini menganalisis kinerja metode XGBoost dalam menangani nilai-nilai yang hilang (missing values) untuk prediksi klaim dan prediksi risiko dalam asuransi dan kinerja tersebut juga dibandingkan dengan metode imputasi standard lainnya, yaitu metode mean dan k-nearest neighbors (KNN). Simulasi menunjukkan bahwa model XGBoost tanpa dilakukan proses imputasi memberikan hasil yang sebanding dengan model XGBoost dengan imputasi

Claim prediction and risk prediction of insurance is carried out to classify claims and the levels of risk in insurance industries. From the machine learning point of view, the problem of claim prediction is a two-class classification, and the problem of risk level prediction is a multi-class classification. To classify the claims and risk, a machine learning model will predict based on historical data. In the insurance applicant's historical data, there will be the possibility of missing values so that it is necessary to deal with these problems to provide better performance. XGBoost is a machine learning method that is widely used for classification problems and can handle missing values without an imputation preprocessing. This study analyzed the performance of the XGBoost model in handling missing values for claim prediction and risk prediction in insurance and the performance is also compared with other standard imputation methods, i.e the mean and k-nearest neighbors (KNN) method. The simulations show that the XGBoost model without any imputation preprocessing gives a comparable result to one of the XGBoost models with an imputation preprocessing."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2020
T-pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Adhitya Dwi Nugraha
"Ledakan batu merupakan kecelakaan destruktif yang cukup sering terjadi pada tambang bawah tanah. Seiring dengan berkembangnya teknologi, machine learning hadir sebagai alternatif solusi yang dapat dimanfaatkan dalam langkah preventif atas kasus ledakan batu. Penelitian ini menggunakan GWO-SVM dan XGBoost sebagai model machine learning dalam klasifikasi ledakan batu dan intensitasnya pada tambang bawah tanah. Grey Wolf Optimization (GWO) digunakan sebagai optimizer dari parameter SVM. Intensitas ledakan batu dibedakan atas tidak ada ledakan batu, lemah, sedang dan kuat. Dalam implementasi model, digunakan 467 kasus ledakan batu yang dikumpulkan dari berbagai sumber. Fitur yang digunakan pada penelitian ini meliputi tegangan maksimal tangensial, kekuatan tekan uniaksial, kekuatan tarik uniaksial, koefisien tegangan, koefisien kerapuhan batuan, dan indeks regangan elastis. Sebelum implementasi model dilakukan data preprocessing yang meliputi imputasi missing values, menghapus outlier, normalisasi fitur dan resampling data. Kinerja model dievaluasi berdasarkan nilai metrik accuracy, precision, recall, dan f1-score dengan memerhatikan running time dan proporsi data training berkisar dari 50% hingga 90%. Hasil penelitian menunjukkan bahwa GWO-SVM mengungguli XGBoost baik dalam klasifikasi ledakan batu dengan accuracy 98.0392%, precision 97.8495%, recall 98.2609%, dan f1-score 98.0161% serta klasifikasi intensitas ledakannya dengan accuracy 75.8242%, precision 75.1473%, recall 75.3115%, dan f1-score 75.2150%.

Rockburst is a destructive accident that frequently occurs in underground mines. With the advancement of technology, machine learning has emerged as an alternative solution that can be utilized to measures against rockbursts. This research employs GWO-SVM and XGBoost as machine learning models for the classification of rockburst and its intensity in underground mines. Grey Wolf Optimization (GWO) is used as an optimizer for SVM parameters. The intensity of a rockburst is classified into four categories: no rockburst, weak, moderate, and strong. The implementation of the model utilizes 476 cases of rockburst collected from various sources. The features used in this study include maximum tangential stress, uniaxial compressive strength, uniaxial tensile strength, stress coefficient, rock brittleness coefficient, and elastic strain index. Before implementing the model, data preprocessing is conducted, which includes imputing missing values, removing outliers, feature normalization, and data resampling. The performance of the model is evaluated based on metrics such as accuracy, precision, recall, and f1-score with various training data proportions ranging from 50% to 90%. The research results indicate that GWO-SVM outperforms XGBoost in both the classification of rockburst with 98.0392% accuracy, 97.8495% precision, 98.2609% recall, and 98.0161% f1-score as well as intensity with 75.8242% accuracy, 75.1473% precision, 75.3115% recall, and 75.2150% f1-score.
"
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Kevin Harijanto
"Sebagai salah satu cara untuk memindahkan risiko, banyak orang menginginkan produk asuransi sebagai jaminan proteksi atas dirinya. Pada masa digital ini dimana internet, media sosial dan media komunikasi digital lainnya sudah menjadi bagian dari kehidupan sehari-hari. Perusahaan asuransi juga perlu untuk mengetahui preferensi pelanggannya untuk menjangkau pelanggan potensial dan mengoptimalkan model bisnisnya. Terlebih di masa pandemi COVID-19 yang dialami oleh seluruh dunia, perusahaan jasa transportasi sedang dilanda kesulitan. Namun hal ini merupakan potensi yang sangat besar untuk penjualan asuransi perjalanan ketika pandemi sudah berakhir dan perjalanan dimulai kembali. Salah satu cara untuk mendapatkan preferensi pelanggan adalah dengan studi historikal terkait data-data pelanggan sebelumnya. Masalah preferensi ini dapat disederhanakan menjadi klasifikasi biner, dan sudah banyak metode yang umum digunakan untuk masalah ini seperti Logistic Regression, Gradient Boosting Machine dan Random forest. Namun, belum banyak yang menyelesaikan masalah tersebut menggunakan metode Convolutional Neural Network (CNN). Metode ini memanfaatkan algoritma tabular convolution untuk mengubah data tabular menjadi bentuk citra yang kemudian diklasifikasikan menggunakan CNN. Dari hasil simulasi diperoleh bahwa penggunaan metode ini dapat menyaingi akurasi metode Logistic Regression, Gradient Boosting Machine dan Random Forest dengan iterasi yang cukup rendah.

Many people seek insurance products as a guarantee of protection for themselves, as a way to transfer the risk that they are facing. In this digital era where the internet, social media and other digital communication media have become a part of everyday life, insurance companies also need to know their customers’ preferences to reach potential customers and optimize their business models. Especially during the COVID- 19 pandemic experienced by the whole world, transportation service companies are experiencing many difficulties. But due to this pandemic, there lies a huge potential of travel insurance when the pandemic ends and demands surge for travel business. One way to get customer preferences is by historical studies related to previous customer data. This preference problem can be reduced to binary classification with many methods commonly used to address this problem, such as Logistic Regression, Gradient Boosting Machines and Random Forest. However, not many has solved this problem using the Convolutional Neural Network (CNN) method. This method utilizes the tabular convolution algorithm to convert tabular data into image form which will then be classified using CNN. The results obtained that the use of this method can compete with Logistic Regression, Gradient Boosting Machine and Random Forest with a fairly low iteration.
"
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2021
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Theresia Gowandi
"Analisis sentimen adalah salah satu bidang dari Pemrosesan Bahasa Alami yang membangun sistem untuk mengenal opini dalam teks dan mengelompokkan ke dalam sentimen positif atau negatif. Banyak peneliti telah membangun model yang menghasilkan akurasi terbaik dalam melakukan analisis sentimen. Tiga diantaranya adalah Convolutional Neural Network (CNN), Long Short-Term Memory (LSTM), dan Gated Recurrent Unit (GRU), yang merupakan bagian dari deep learning. CNN digunakan karena kemampuannya dalam mengekstrak fitur penting dalam penggalan kalimat, sedangkan LSTM dan GRU digunakan karena kemampuannya yang memiliki memori akan input yang telah diproses sebelumnya. GRU memiliki struktur yang lebih sederhana dibandingkan dengan LSTM. Ketiga model tersebut dapat digabungkan menjadi model gabungan LSTM-CNN, CNN-LSTM, GRU-CNN, dan CNN-GRU. Penelitian sebelumnya telah membuktikan bahwa model gabungan tersebut memiliki akurasi yang lebih baik dibandingkan dengan model dasar LSTM, GRU, dan CNN. Implementasi model dilakukan pada data ulasan aplikasi berbahasa Indonesia. Hasilnya, didapatkan bahwa hampir seluruh model gabungan memiliki akurasi yang lebih baik dibandingkan dengan model dasar.

Sentiment analysis is one of the fields of Natural Language Processing that builds a system to recognize and extract opinion in the form of text into positive or negative sentiment. Nowadays, many researchers have developed methods that yield the best accuracy in performing analysis sentiment. Three particular models are Convolutional Neural Network (CNN), Long Short-Term Memory (LSTM), and Gated Recurrent Unit (GRU), which are part of deep learning architectures. CNN is used because of its ability to extract important features from each sentence fragment, while LSTM and GRU are used because of their ability to have a memory of prior inputs. GRU has a simpler and more practical structure compared to LSTM. These models can be combined into combined LSTM-CNN, CNN-LSTM, GRU-CNN, and CNN-GRU model. Former researches have proved that these models have better accuracy compared to standard models. This research is focused on the performance of all the combined LSTM-CNN, CNN-LSTM, GRU-CNN, CNN-GRU models and will be compared to the standard LSTM, GRU, CNN models. Implementation of the model is performed on a collection of application review data in Indonesian text. As a result, almost all of the combined models have better accuracy than the standard models."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2021
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Raffly Pratama Iban Pameling
"Fraud adalah tindakan kejahatan yang terus terjadi hingga saat ini. Tidak ada lembaga perusahaan yang terbebas dari kemungkinan terjadinya fraud, termasuk juga industri asuransi. Berbagai cara sudah dilakukan untuk mencegah terjadinya fraud pada industri asuransi, seperti tersedianya daftar hitam hingga adanya tim pemeriksaan khusus di setiap perusahaan. Namun, kasus fraud asuransi tetap saja terjadi bahkan semakin berkembang/bervariasi karena perkembangan teknologi. Oleh karena itu, digunakanlah Artificial Intelligence (AI) dan machine learning sebagai decision support system untuk memprediksi potensi fraud asuransi. Masalah ini merupakan skenario klasifikasi biner dengan komposisi kelas antar-target yang tak seimbang (imbalance class) pada data tabular. Penelitian ini bertujuan untuk mengetahui kinerja model Neural Oblivious Decision Ensembles dalam mendeteksi fraud asuransi serta membandingkan kinerja tersebut dengan model XGBoost tanpa penanganan imbalance class, XGBoost dengan oversampling, dan XGBoost dengan pembobotan data sebagai penanganan standar pada masalah imbalance class. Penelitian ini menggunakan Auto Insurance Claims Data yang dipublikasikan oleh Bunty Shah di situs Kaggle pada tahun 2018. Hasil dari penelitian ini didapatkan bahwa rata-rata dari lima model Neural Oblivious Decision Ensembles (NODE) yang dilakukan pada penelitian memberikan nilai accuracy sebesar 75,53%, precision sebesar 74,24%, recall sebesar 75,53%, f1-score sebesar 74,43%, dan Area Under Curve sebesar 75,04% dan dapat mengungguli kinerja dari ketiga model lainnya.

Fraud is a crime that continues to occur today. No corporate institution is free from the possibility of fraud, including the insurance industry. Various methods have been taken to prevent fraud in the insurance industry, such as the availability of a blacklist to the existence of a special inspection team in each company. However, insurance fraud cases still occur even has more variation due to technological developments. Therefore, Artificial Intelligence (AI) and machine learning are used as decision support systems to predict potential insurance fraud. This research is an implementation of binary-classification scenario with imbalance class on tabular data. This research aims to determine the performance of the Neural Oblivious Decision Ensembles model in detecting insurance fraud and compare the performance with the XGBoost without imbalance class handling, XGBoost with oversampling, and XGBoost with weighted data as the standard handling of imbalance class problems. This research uses the Auto Insurance Claims Data published by Bunty Shah on the Kaggle website in 2018. The results of this research found that the average of the five Neural Oblivious Decision Ensembles (NODE) models gave an accuracy value of 75.53% , precision of 74.24%, recall of 75.53%, f1-score of 74.43%, and Area Under Curve of 75.04% and can outperform the performance of the other three models."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Alvin Subakti
"Text clustering adalah teknik pengelompokan teks sehingga teks di dalam kelompok yang sama memiliki tingkat similaritas yang lebih tinggi satu sama lain dibandingkan dengan teks pada kelompok yang berbeda. Proses pengelompokkan teks secara manual membutuhkan waktu dan sumber daya yang banyak sehingga digunakan machine learning untuk melakukan pengelompokan secara otomatis. Representasi dari teks perlu diekstraksi sebelum dimasukkan ke dalam model machine learning. Metode yang umumnya digunakan untuk mengekstraksi representasi data teks adalah TFIDF. Namun, metode TFIDF memiliki kekurangan yaitu tidak memperhatikan posisi dan konteks penggunaan kata. Model BERT adalah model yang dapat menghasilkan representasi kata yang bergantung pada posisi dan konteks penggunaan suatu kata dalam kalimat. Penelitian ini menganalisis kinerja model BERT sebagai metode representasi data teks dengan membandingkan model BERT dengan TFIDF. Selain itu, penelitian ini juga mengimplementasikan dan membandingkan kinerja metode ekstraksi dan normalisasi fitur yang berbeda pada representasi teks yang dihasilkan model BERT. Metode ekstraksi fitur yang digunakan adalah max dan mean pooling. Sementara itu, metode normalisasi fitur yang digunakan adalah identity, layer, standard, dan min-max normalization. Representasi teks yang diperoleh dimasukkan ke dalam 4 algoritma clustering berbeda, yaitu k-means clustering, eigenspace-based fuzzy c-means, deep embedded clustering, dan improved deep embedded clustering. Kinerja representasi teks dievaluasi dengan menggunakan metrik clustering accuracy, normalized mutual information, dan adjusted rand index. Hasil simulasi menunjukkan representasi data teks yang dihasilkan model BERT mampu mengungguli representasi yang dihasilkan TFIDF pada 28 dari 36 metrik. Selain itu, implementasi ekstraksi dan normalisasi fitur yang berbeda pada model BERT memberikan kinerja yang berbeda-beda dan perlu disesuaikan dengan algoritma yang digunakan.

Text clustering is a task of grouping a set of texts in a way such that text in the same group will be more similar toward each other than to those from different group. The process of grouping text manually requires significant amount of time and labor. Therefore, automation utilizing machine learning is necessary. Text representation needs to be extracted to become the input for machine learning models. The common method used to represent textual data is TFIDF. However, TFIDF cannot consider the position and context of a word in a sentence. BERT model has the capability to produce text representation that incorporate position and context of a word in a sentence. This research analyzed the performance of BERT model as a text representation method by comparing it with TFIDF. Moreover, various feature extraction and normalization methods are also applied in text representation from BERT model. Feature extraction methods used are max and mean pooling. On the other hand, feature normalization methods used are identity, layer, standard, and min-max normalization. Text representation obtained become an input for 4 clustering algorithms, k-means clustering, eigenspace-based fuzzy c-means, deep embedded clustering, and improved deep embedded clustering. Performance of text representations in text clustering are evaluated utilizing clustering accuracy, normalized mutual information, and adjusted rand index. Simulation results showed that text representation obtained from BERT model outperforms representation from TFIDF in 28 out of 36 metrics. Furthermore, different feature extraction and normalization produced varied performances. The usage of these feature extraction and normalization must be altered depending on the text clustering algorithm used."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2021
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Richie Ghifari
"Rancang campur beton merupakan proses bertahap dan kompleks untuk mencoba menemukan komposisi bahan terbaik guna menghasilkan beton dengan performa terbaik. Kuat tekan beton merupakan sifat terpenting dalam kualitas beton dibandingkan sifat-sifat lain. Dalam proses pembuatannya, banyak variabel terutama jumlah komposisi material penyusun yang dapat memengaruhi kuat tekan beton. Terdapat beberapa metode konvensional dalam memprediksi beton yang terkadang memberikan hasil prediksi lebih atau kurang dari kuat tekan yang ditargetkan. Diperlukan metode yang akurat dalam memprediksi kuat tekan beton agar dapat memberikan keuntungan secara signifikan terhadap penggunaan bahan. Oleh karena itu, penelitian ini menggunakan Deep Neural Network (DNN) sebagai subbidang dari Machine Learning (ML) dan Artificial Intelligence (AI), untuk memprediksi kuat tekan beton berdasarkan komposisi campuran dan properti materialnya. Penelitian ini menghasilkan formula matematika berupa persamaan yang dihasilkan dari model DNN terbaik dengan melihat aspek error model dan grafik model loss. Terdapat total 2048 model yang dianalisis dengan variasi jumlah variabel input (feature) yang berbeda-beda. Model 280 pada kasus 1 dan model 23 pada kasus 5 merupakan model terbaik yang dihasilkan penelitian ini, dengan masing-masing nilai error model 43,8028 dan 5778,5850 untuk Mean Squared Error (MSE) serta 5,0073 dan 59,8225 Maen Absolute Error (MAE).

Concrete mix design is a gradual and complex process of trying to find the best ingredient composition to produce the best performing concrete. The compressive strength of concrete is the most important property in concrete quality compared to other properties. In the manufacturing process, many variables, especially the amount of material composition, can affect the compressive strength of concrete. There are several conventional methods of predicting concrete that sometimes give predictive results more or less than the targeted compressive strength. An accurate method of predicting the compressive strength of concrete is needed in order to significantly benefit the use of materials. Therefore, this research utilizes Deep Neural Network (DNN), a subfield of Machine Learning (ML) and Artificial Intelligence (AI), to predict the compressive strength of concrete based on its mix composition and material properties. This research produces mathematical formulas in the form of equations generated from the best DNN model by looking at the aspects of model error and model loss graphs. There are a total of 2048 models analyzed with different variations in the number of input variables (features). Model 280 in case 1 and model 23 in case 5 are the best models produced by this study, with model error values of 43.8028 and 5778.5850 for Mean Squared Error (MSE) and 5.0073 and 59.8225 Maen Absolute Error (MAE), respectively.
"
Depok: Fakultas Teknik Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Daffa Zuhdii
"Kecelakaan lalu lintas merupakan masalah yang harus dihadapi dengan serius. Salah satu faktor yang menjadi penyebab terjadinya kecelakaan lalu lintas adalah kondisi kantuk dan kelelahan yang dialami oleh pengemudi. Seringkali pengemudi mengabaikan kondisi kantuk tersebut, namun hal itulah yang menyebabkan terjadinya kecelakaan akibat kelelahan. Salah satu indikator yang dapat diamati untuk mengetahui kondisi pengemudi adalah dengan melihat kondisi mata pengemudi. Dalam kondisi lelah, mata pengemudi akan berkedip dengan frekuensi yang lebih cepat dan sesekali akan memejamkan mata dengan rentang waktu yang lebih lama. Penelitian ini bertujuan untuk mengembangkan sebuah sistem yang dapat mengidentifikasi kondisi mata pengemudi, apakah mata pengemudi tersebut terbuka atau terpejam. Sistem yang dikembangkan dalam penelitian ini akan menggunakan teknologi deep learning dengan arsitektur MobileNet. Sistem akan diaplikasikan menggunakan divais yang kecil, yaitu Raspberry Pi, sehingga dapat digunakan dalam mobil.
Penelitian ini menggunakan dataset “MRL Eye Dataset” yang terdiri atas ribuan gambar mata dari puluhan subjek, dengan keadaan mata tertutup dan terbuka. Dataset tersebut kemudian digunakan untuk melatih model deep learning yang akan digunakan untuk melakukan klasifikasi kondisi mata pengemudi.
Hasil dari pengujian pada penelitian ini menunjukkan bahwa arsitektur Deep Learning MobileNetV1 dapat diaplikasikan dengan divais yang memiliki spesifikasi rendah seperti Raspberry Pi dan memiliki performa yang baik. Hasil penelitian ini juga menunjukkan adanya pengaruh intensitas cahaya serta penggunaan kacamata terhadap klasifikasi kondisi mata pengemudi oleh algoritma deep learning.
Penelitian ini diharapkan dapat memberikan kontribusi dalam perkembangan penggunaan deep learning untuk meningkatkan keselamatan dalam berlalulintas, serta membuka ruang bagi penelitian yang akan datang terkait deep learning.

Traffic accidents are a serious issue that must be addressed with great concern. One of the factors contributing to traffic accidents is the condition of fatigue and drowsiness experienced by drivers. Often, drivers tend to overlook their drowsy state, but this is a leading cause of accidents due to fatigue. One observable indicator of a driver's condition is the state of their eyes. In a fatigued state, a driver's eyes tend to blink at a faster rate, and occasionally, they may close their eyes for a longer duration. This research aims to develop a system capable of identifying the condition of a driver's eyes, whether they are open or closed.
The system developed in this research utilizes deep learning technology with the MobileNet architecture. The research implements the system on a small device, specifically the Raspberry Pi, making it applicable for use in vehicles. The study utilizes the "MRL Eye Dataset," consisting of thousands of images of open and closed eyes from multiple subjects, to train the deep learning model for classifying the driver's eye conditions.
The results of the research indicate that the Deep Learning MobileNetV1 architecture can be applied successfully on low-spec devices such as the Raspberry Pi, demonstrating good performance. The study also reveals the influence of light intensity and the use of glasses on the classification of driver eye conditions by the deep learning algorithm.
This research is expected to contribute to the advancement of utilizing deep learning to enhance traffic safety and pave the way for future research in the field of deep learning.
"
Depok: Fakultas Teknik Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
<<   1 2 3 4 5 6 7 8 9 10   >>