Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 97077 dokumen yang sesuai dengan query
cover
Henry Prayoga
"Penelitian ini menganalisis akurasi peramalan permintaan produk barang konsumsi cepat (FMCG) menggunakan model Machine Learning, yaitu LSTM (Long Short-Term Memory) dan SARIMAX (Seasonal AutoRegressive Integrated Moving Average with eXogenous regressors), dengan data sekunder dari April 2021 hingga April 2024 yang terdiri dari 36 observasi bulanan. Variabel dependen adalah total penjualan, sementara variabel eksogen mencakup pengeluaran per kapita, adopsi produk, proporsi penjualan dari promosi, jumlah toko yang menjual produk, dan pangsa pasar produk. Hasil menunjukkan model LSTM memiliki akurasi lebih tinggi dalam memprediksi nilai penjualan dibandingkan SARIMAX, dengan nilai Mean Absolute Percentage Error (MAPE) yang lebih rendah pada sebagian besar sampel. Analisis korelasi mengungkapkan variabel jumlah toko yang menjual produk dan adopsi produk berpengaruh signifikan terhadap nilai penjualan dalam model LSTM, sedangkan SARIMAX unggul dalam menangkap pola musiman namun memiliki MAPE lebih tinggi. Penelitian ini menyarankan penggunaan model LSTM untuk data time series yang kompleks dan tidak stasioner, sementara SARIMAX lebih cocok untuk data dengan komponen musiman yang kuat. Pemilihan model harus mempertimbangkan karakteristik data dan tujuan analisis.

This study analyzes the forecasting accuracy of fast-moving consumer goods (FMCG) demand using Machine Learning models, namely LSTM (Long Short-Term Memory) and SARIMAX (Seasonal AutoRegressive Integrated Moving Average with eXogenous regressors), utilizing secondary data from April 2021 to April 2024 with a total of 36 monthly observations. The dependent variable is sales value, while the exogenous variables include spend per buyer, product penetration, promo % of value, the number of stores selling, and market share. The results indicate that the LSTM model has higher accuracy in predicting sales value compared to the SARIMAX model, with a lower Mean Absolute Percentage Error (MAPE) for most samples. Correlation analysis reveals that the variables number of stores selling and product penetration significantly influence sales value in the LSTM model, whereas SARIMAX excels in capturing seasonal patterns but has a higher MAPE. This study recommends using the LSTM model for complex and non-stationary time series data, while SARIMAX is more suitable for data with strong seasonal components. Model selection should consider the characteristics of the data and the objectives of the analysis."
Depok: Fakultas Teknik Universitas Indonesia, 2024
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Widyo Jatmoko
"Memprediksi penjualan produk sangatlah penting bagi perusahaan FMCG terutama pada kondisi ekonomi yang tak menentu saat ini. Kemampuan untuk mencapai efisiensi dalam pembuatan, pendistribusian, dan pemasaran barang, sangatlah bergantung pada seberapa akurat perkiraan penjualan. Pengaruh prediksi penjualan yang salah dapat menyebabkan perubahan perilaku konsumen terhadap produk, persediaan berlebih, dan kurangnya stok di pasar. Banyak penelitian yang menunjukkan bahwa metoda machine learning saat ini adalah metoda terbaik untuk memprediksi penjualan, namun, banyak perusahaan masih kesulitan untuk menggunakan metoda machine learning ini dikarenakan banyak variabel yang dibutuhkan untuk memprediksi penjualan agar hasilnya menjadi lebih akurat. Penelitian ini mengusulkan kerangka sederhana untuk memprediksi penjualan produk menggunakan metoda machine learning regresi linear, decision tree, random forest serta support vector machine dalam variabel seperti harga produk, tingkat distribusi, pemasaran dan variabel eksternal seperti inflasi, indeks kepercayaan konsumen dan tingkat bunga. Hasilnya menunjukkan bahwa menggabungkan regresi random forest untuk meramalkan Indeks kepercayaan Konsumen dan kemudian menggunakan regresi support vector dalam variabel-variabel ini cukup akurat untuk memprediksi penjualan.

Predicting the sales of the product is becoming more critical for fast-moving consumer goods company especially during unprecedented times. The ability to achieve efficiency for manufacturing, distributing, and marketing for the goods, are really dependent on how accurate the sales forecast is. The effect of wrong sales prediction could lead to consumer behavior changes towards the product, excessive inventory, and out of stocks in the market. Many papers show that machine learning techniques are currently the best practice to predict sales, however, many companies are still struggling to use these machine learning techniques due to many variables that are being needed to forecast the sales for the result to become more accurate. This study proposed a simple framework to forecast the sales of products using the combined supervised machine learning technique between multiple linear regression, decision tree regression, random forest regression, and support vector regression within internal marketing variables such as product price, distribution level, and marketing spends and external variables such as inflation, consumer confidence index and interest rate. The results show that combining random forest regression to forecast the Consumer Confidence Index and then using support vector regression within these variables is quite accurate to predict the sales."
Depok: Fakultas Teknik Universitas Indonesia, 2021
T-pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Rebala, Gopinath
"Just like electricity, Machine Learning will revolutionize our life in many ways-some of which are not even conceivable today. This book provides a thorough conceptual understanding of Machine Learning techniques and algorithms. Many of the mathematical concepts are explained in an intuitive manner. The book starts with an overview of machine learning and the underlying Mathematical and Statistical concepts before moving onto machine learning topics. It gradually builds up the depth, covering many of the present day machine learning algorithms, ending in Deep Learning and Reinforcement Learning algorithms. The book also covers some of the popular Machine Learning applications. The material in this book is agnostic to any specific programming language or hardware so that readers can try these concepts on whichever platforms they are already familiar with."
Switzerland: Springer Nature, 2019
e20506268
eBooks  Universitas Indonesia Library
cover
Ananda Fauzia Sabban
"Rumah menjadi tempat tinggal yang memiliki fungsi untuk memberikan rasa aman dan nyaman bagi penghuninya. Oleh sebab itu, pemilihan lokasi tempat tinggal menjadi penting, terutama bagi penduduk Jakarta, dimana Jakarta termasuk daerah rawan terhadap banjir. Banjir di Jakarta berdampak pada keamanan dan keselamatan hingga memberikan kerugian secara materil. Oleh karena itu, penelitian ini mengestimasikan property value harga rumah dengan mempertimbangkan lokasi tempat tinggal. Namun, penelitian ini juga akan menggunakan faktor penentu lokasi dalam pemilihan rumah lainnya, seperti atribut aksesibilitas dan atribut struktutal. Dalam pembuatan model estimasi ini akan menggunakan machine learning (ML) sebagai metodenya, yaitu Gradient Boosting Decision Trees (GBDT) dan Random Forest (RF), dengan optimasi Genetic Algorithm (GA) untuk meningkatkan kinerja model. Hasil penelitian ini menunjukkan GBDT dan RF memiliki performa sama baiknya dalam mengestimasi model property value rumah. Serta, penggunaan GA untuk meningkatkan kinerja model berhasil dengan meningkatnya nilai R2, serta menurunnya nilai MAPE dan RMSE. Penelitian ini juga melihat faktor – faktor yang berpengaruh terhadap model, dengan luas tanah dan luas bangunan menjadi faktor paling berpengaruh, yang diikuti oleh MRT, rumah sakit, pusat perbelanjaan, tol, SMP, dan lokasi rawan.

A home serves as a place of residence that provides a sense of safety and comfort for its occupants. Therefore, the selection of the location for a residence is crucial, especially for residents of Jakarta, as Jakarta is prone to flooding. Flooding in Jakarta impacts security, safety, and even material losses. Hence, this research aims to estimate the property value of houses by considering the location of the residence. Additionally, the research will incorporate other factors that influence housing selection, such as accessibility attributes and structural attributes. The estimation model will utilize machine learning (ML) techniques, specifically Gradient Boosting Decision Trees (GBDT) and Random Forest (RF), with Genetic Algorithm (GA) optimization to enhance the model's performance. The research findings indicate that both GBDT and RF perform equally well in estimating the property value model. Moreover, the use of GA to improve the model's performance is successful, as evidenced by an increase in the R2 value and a decrease in the MAPE and RMSE values. The research also examines the factors that influence the model, with land area and building area being the most influential factors, followed by proximity to the MRT, hospitals, shopping centres, toll roads, junior high schools, and flood-prone areas."
Depok: Fakultas Teknik Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Tri Kushartadi
"Teknologi Dense Wavelength Division Multiplexing (DWDM) telah mengalami perkembangan pesat, di mana beberapa vendor telah meningkatkan kapasitas per frekuensi hingga mencapai 1 Tbps (Tera Bit Per Second). Dalam tesis ini, penelitian dilakukan untuk menentukan pola data yang digunakan oleh engineer guna mencapai hasil yang optimal dengan menggunakan kecerdasan buatan. Penelitian ini berfokus pada simulasi jaringan DWDM di Microsoft di Amerika Utara, yang melibatkan beberapa repeater dan mempertimbangkan berbagai faktor yang terjadi dalam jaringan tersebut. Dengan menggunakan data hasil performansi lapangan, ditemukan data yang paling optimal untuk jaringan DWDM tersebut. Dengan mencapai kinerja Q-Factor yang baik, diperoleh juga margin pada jaringan berdasarkan perhitungan kabel optiknya. Estimasi kinerja Q-Factor dapat diperoleh melalui fungsi regresi linear yang bergantung pada perangkat yang dilalui dalam jaringan, seperti Transponder, EDFA, dan media transmisi berupa serat optik. Data hasil pengukuran merupakan data perubahan daya transmisi pada sisi penguat, yang menyebabkan perubahan daya per kanal pada setiap transponder di sisi penerima. Setiap perubahan nilai kinerja Q-Factor pada setiap kanal dianalisis polanya menggunakan machine learning. Data tersebut akan dilakukan proses pelatihan berulang kali guna meminimalkan kesalahan dan mencapai kinerja Q-Factor yang lebih baik. Secara keseluruhan, hasil yang dicapai dalam tesis ini membentuk dasar bagi skema pemodelan kinerja Q-Factor yang akurat serta mendapatkan nilai Q-Factor yang optimal. Hasil penelitian ini memberikan wawasan tentang penggunaan machine learning di masa depan dalam perencanaan jaringan optik DWDM.

This research investigates the development of Dense
Wavelength Division Multiplexing (DWDM) technology in
conjunction with 6G technology to meet the growing demands for
high-speed data transmission. Vendors have significantly
increased the capacity per channel enabling speeds of up to 1 Tera Bit Per Second. The Q-Factor is one of the indicators that
determines the quality of the optical system. Q-Factor plays a
crucial role in evaluating these technological advancements. In
actual practice, engineers need to conduct manual field tests to
obtain the Q-factor value. Engineers must calibrate the equipment
manually onsite. This procedure is time consuming and inefficient. Machine learning can be used to calculate and forecast the Qfactor quickly and automatically. This study designs a machine learning algorithm to forecast the Q-factor value based on the equipment parameters in the field. This study evaluates 4 machine learning algorithms. The data used is obtained from the Microsoft optical network in North America. The Decision tree model archives the best results with an impressive accuracy of 99.5% and low mean squared error (MSE) of 0,00104. The proposed algorithm achieved better results than the previous research.
"
Depok: Fakultas Teknik Universitas Indonesia, 2023
T-pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Alifian Atras Timur
"Virus Dengue merupakan virus endemik yang telah ada sejak abad ke 15. Virus Dengue memiliki 4 varian, dan keempat varian tersebut beredar secara bebas di Indonesia. Kasus demam berdarah di Indonesia telah mencapai 131.265 kasus pada tahun 2022. Hingga saat ini, belum ditemukan obat ataupun vaksin yang efektif dalam mencegah persebaran dan mengobati penyakit demam berdarah. Senyawa flavonoid diketahui memiliki sifat antioksidan, antikanker, dan sifat inhibisi virus. Salah satu virus yang berpotensi untuk di inhibisi adalah virus Dengue. Namun, dengan ribuan senyawa yang termasuk ke dalam senyawa flavonoid, dibutuhkan waktu lama untuk melakukan pengujian baik secara in vitro ataupun in vivo. Salah satu cara untuk mempercepat proses penemuan senyawa inhibitor potensial adalah metode in silico, dengan metode yang umum digunakan adalah penambatan molekuler. Namun, proses penambatan molekuler juga masih tetap membutuhkan waktu yang lama. Pada penelitian ini, dilakukan prediksi skor penambatan menggunakan metode pembelajaran mesin (machine learning). Data skor penambatan didapat dengan penambatan molekuler menggunakan aplikasi Autodock Vina. Dikembangkan empat model pembelajaran mesin, yakni K-Nearest Neighbor, Xtra Trees, Xtreme Gradient Boosting, dan Artificial Neural Network. Agar komputer dapat mengenali senyawa flavonoid, digunakan deskriptor AlvaDesc dan SMILES. Dari model yang dikembangkan, diambil hasil berupa akurasi dan waktu pelatihan model, dan kemudian dilakukan perbandingan dari setiap model yang dikembangkan beserta deskriptor yang digunakan. Hasil penelitian menunjukkan deskriptor AlvaDesc memiliki akurasi yang lebih tinggi dan waktu pengembangan yang lebih singkat dibandingkan dengan deskriptor SMILES. Model Xtreme Gradient Boosting dengan deskriptor AlvaDesc memiliki performa terbaik dengan akurasi 88,06% dan waktu pelatihan selama 2 menit 40 detik. Model Xtreme Gradient Boosting dengan deskriptor AlvaDesc juga dapat memprediksi skor penambatan senyawa propolis dengan rata-rata perbedaan hasil prediksi dengan nilai aktual sebesar 0,3517428866.

Dengue virus is an endemic virus that exist since the 15th century. Dengue Virus has 4 variants, and all of them exist in Indonesia. Dengue virus case reached over 131,265 cases in 2022 alone. Until now, there are no proven and effective drug or vaccine that can prevent the spread and infection of Dengue virus. Flavonoid compounds are known to have antioxidant and anticancer properties. In some cases, Flavonoid is also exhibit antivirus properties against some virus, one of them being Dengue virus. However, with thousands of compounds classified as flavonoid, it will take significant amount of time to discover and develop the drug for Dengue virus, both with in vitro and in vivo method. Alternative method to speed up the drug discovery process is to utilize in silico or simulation method. One of the method is to use molecular docking. Nevertheless, this method still take considerable amount of time to find the suitable compound. In this research, we will examine the usage of machine learning to predict the docking score of flavonoid compound. Docking score data are retrieved from the moelcaular docking with Autodock Vina application. In this research, four models are developed, K-Nearest Neighbor, Xtra Trees, Xtreme Gradient Boosting, and Artificial Neural Network models. The molecular descriptors that used in this research are AlvaDesc and SMILES. From the developed model, the accuracy and training time of the model will be collected and will be analyzed in relation with their model and descriptor that is used. Result shows that AlvaDesc more suitable to be used as descriptor, because of the higher model accuracy and lower training time compared to the SMILES model. XGB Regressor model with Alvadesc descriptor shows the best performance with accuracy of 88.02% and training time of 2 minutes and 40 seconds. The XGB Regressor model is also able to accurately predict the docking score of Propolis compounds with the mean value of the difference between the predicted and actual result value of 0,,3517428866.
"
Depok: Fakultas Teknik Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Muhammad Fauzul Akbar
"Large Language Model (LLM) generatif merupakan jenis model machine learning yang dapat diaplikasikan dalam industri jurnalisme, khususnya dalam proses pembuatan dan validasi berita. Namun, LLM memerlukan sumber daya yang besar untuk operasionalnya serta membutuhkan waktu proses inferensi yang relatif lama. Penelitian ini bertujuan untuk mengembangkan layanan web machine learning yang memanfaatkan LLM generatif untuk proses pembuatan dan validasi berita. Tujuan lainnya adalah menciptakan sistem dengan mekanisme manajemen beban yang efisien untuk meminimalkan waktu inferensi. Pengembangan melibatkan beberapa tahap, yakni analisis kebutuhan stakeholder, perancangan desain dan arsitektur, implementasi, serta evaluasi. Dalam implementasi layanan web machine learning, pengembangan ini berfokus pada manajemen GPU untuk meningkatkan kecepatan proses inferensi LLM. Selain itu, dilakukan implementasi design pattern untuk meningkatkan skalabilitas dalam penambahan model machine learning. Untuk manajemen beban, dikembangkan dua mekanisme, yaitu load balancer dan scheduler. Implementasi load balancer memanfaatkan NGINX dengan metode round-robin. Sedangkan untuk scheduler, digunakan RabbitMQ sebagai antrean, dengan publisher menerima permintaan dan subscriber mendistribusikan permintaan ke layanan yang tersedia. Berdasarkan API Test, layanan ini berhasil melewati uji fungsionalitas dengan waktu respons API sekitar 1-2 menit per permintaan. Evaluasi performa pada kedua mekanisme manajemen beban menunjukkan tingkat keberhasilan 100%, dengan waktu respon rata-rata meningkat seiring dengan peningkatan jumlah request per detik. Pengelolaan beban dengan load balancer menghasilkan waktu respon yang lebih cepat, sementara pengelolaan beban dengan scheduler menghasilkan mekanisme yang lebih efektif pada proses koneksi asinkron.

Generative Large Language Model (LLM) is a type of machine learning model that can be applied in the journalism industry, especially in the process of news generation and validation. However, LLM requires large resources for its operation and requires a relatively long inference process time. This research aims to develop a machine learning web service that utilizes generative LLM for news generation and validation. Another goal is to create a system with an efficient load management mechanism to minimize inference time. The development involves several stages, namely stakeholder needs analysis, design and architecture, implementation, and evaluation. In the implementation of machine learning web services, this development focuses on GPU management to increase the speed of the LLM inference process. In addition, the implementation of design patterns is done to improve scalability in adding machine learning models. For load management, two mechanisms are developed: load balancer and scheduler. The load balancer implementation utilizes NGINX with the round-robin method. As for the scheduler, RabbitMQ is used as a queue, with the publisher receiving requests and the subscriber distributing requests to available services. Based on the API Test, the service successfully passed the functionality test with an API response time of about 1-2 minutes per request. Performance evaluation on both load management mechanisms showed a 100% success rate, with the average response time increasing as the number of requests per second increased. The use of a load balancer results in faster response times, while load management with a scheduler results in a more effective mechanism for asynchronous connection processes. "
Depok: Fakultas Ilmu Komputer Universitas Indonesia , 2024
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Hakim Amarullah
"Proses training model membutuhkan sumber daya komputasi yang akan terus meningkat seiring dengan bertambahnya jumlah data dan jumlah iterasi yang telah dicapai. Hal ini dapat menimbulkan masalah ketika proses training model dilakukan pada lingkungan komputasi yang berbagi sumber daya seperti pada infrastruktur komputasi berbasis klaster. Masalah yang ditimbulkan terutama terkait dengan efisiensi, konkurensi, dan tingkat utilisasi sumber daya komputasi. Persoalan efisiensi muncul ketika sumber daya komputasi telah tersedia, tetapi belum mencukupi untuk kebutuhan job pada antrian ter- atas. Akibatnya sumber daya komputasi tersebut menganggur. Penggunaan sumber daya tersebut menjadi tidak efisien karena terdapat kemungkinan sumber daya tersebut cukup untuk mengeksekusi job lain pada antrian. Selain itu, pada cluster computing juga mem- butuhkan sistem monitoring untuk mengawasi dan menganalisis penggunaan sumber daya pada klaster. Penelitian ini bertujuan untuk menemukan resource manager yang sesuai untuk digunakan pada klaster komputasi yang memiliki GPU agar dapat meningkatkan efisiensi, implementasi sistem monitoring yang dapat membantu analisis penggunaan sumber daya sekaligus monitoring proses komputasi yang sedang dijalankan pada klaster, dan melayani inference untuk model machine learning. Penelitian dilakukan dengan cara menjalankan eksperimen penggunaan Slurm dan Kubernetes. Hasil yang diperoleh adalah Slurm dapat memenuhi kebutuhan untuk job scheduling dan mengatur penggunaan GPU dan resources lainnya pada klaster dapat digunakan oleh banyak pengguna sekaligus. Sedangkan untuk sistem monitoring, sistem yang dipilih adalah Prometheus, Grafana, dan Open OnDemand. Sementara itu, sistem yang digunakan untuk inference model adalah Flask dan Docker.

The amount of computational power needed for the model training process will keep rising along with the volume of data and the number of successful iterations. When the model training process is conducted in computing environments that share resources, such as on cluster-based computing infrastructure, this might lead to issues. Efficiency, competition, and the level of resource use are the three key issues discussed.Efficiency problems occur when there are already computing resources available, yet they are insufficient to meet the demands of high-level workloads. The power of the machine is subsequently wasted. The utilization of such resources becomes inefficient because it’s possible that they would be adequate to complete other tasks on the front lines. A monitoring system is also necessary for cluster computing in order to track and assess how resources are used on clusters. The project seeks to set up a monitoring system that can assist in analyzing the usage of resources while monitoring the com- puting processes running on the cluster and locate a suitable resource manager to be utilized on a computing cluster that has a GPU in order to increase efficiency, also serve inference model in production. Slurm and Kubernetes experiments were used to conduct the investigation. The findings show that Slurm can handle the demands of job scheduling, manage the utilization of GPUs, and allow for concurrent use of other cluster resources. Prometheus, Grafana, and Open OnDemand are the chosen moni- toring systems. Else, inference model is using Flask and Docker as its system constructor.
"
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Muhammad Anis Abdul Aziz
"Proses training model membutuhkan sumber daya komputasi yang akan terus meningkat seiring dengan bertambahnya jumlah data dan jumlah iterasi yang telah dicapai. Hal ini dapat menimbulkan masalah ketika proses training model dilakukan pada lingkungan komputasi yang berbagi sumber daya seperti pada infrastruktur komputasi berbasis klaster. Masalah yang ditimbulkan terutama terkait dengan efisiensi, konkurensi, dan tingkat utilisasi sumber daya komputasi. Persoalan efisiensi muncul ketika sumber daya komputasi telah tersedia, tetapi belum mencukupi untuk kebutuhan job pada antrian ter- atas. Akibatnya sumber daya komputasi tersebut menganggur. Penggunaan sumber daya tersebut menjadi tidak efisien karena terdapat kemungkinan sumber daya tersebut cukup untuk mengeksekusi job lain pada antrian. Selain itu, pada cluster computing juga mem- butuhkan sistem monitoring untuk mengawasi dan menganalisis penggunaan sumber daya pada klaster. Penelitian ini bertujuan untuk menemukan resource manager yang sesuai untuk digunakan pada klaster komputasi yang memiliki GPU agar dapat meningkatkan efisiensi, implementasi sistem monitoring yang dapat membantu analisis penggunaan sumber daya sekaligus monitoring proses komputasi yang sedang dijalankan pada klaster, dan melayani inference untuk model machine learning. Penelitian dilakukan dengan cara menjalankan eksperimen penggunaan Slurm dan Kubernetes. Hasil yang diperoleh adalah Slurm dapat memenuhi kebutuhan untuk job scheduling dan mengatur penggunaan GPU dan resources lainnya pada klaster dapat digunakan oleh banyak pengguna sekaligus. Sedangkan untuk sistem monitoring, sistem yang dipilih adalah Prometheus, Grafana, dan Open OnDemand. Sementara itu, sistem yang digunakan untuk inference model adalah Flask dan Docker.

The amount of computational power needed for the model training process will keep rising along with the volume of data and the number of successful iterations. When the model training process is conducted in computing environments that share resources, such as on cluster-based computing infrastructure, this might lead to issues. Efficiency, competition, and the level of resource use are the three key issues discussed.Efficiency problems occur when there are already computing resources available, yet they are insufficient to meet the demands of high-level workloads. The power of the machine is subsequently wasted. The utilization of such resources becomes inefficient because it’s possible that they would be adequate to complete other tasks on the front lines. A monitoring system is also necessary for cluster computing in order to track and assess how resources are used on clusters. The project seeks to set up a monitoring system that can assist in analyzing the usage of resources while monitoring the com- puting processes running on the cluster and locate a suitable resource manager to be utilized on a computing cluster that has a GPU in order to increase efficiency, also serve inference model in production. Slurm and Kubernetes experiments were used to conduct the investigation. The findings show that Slurm can handle the demands of job scheduling, manage the utilization of GPUs, and allow for concurrent use of other cluster resources. Prometheus, Grafana, and Open OnDemand are the chosen moni- toring systems. Else, inference model is using Flask and Docker as its system constructor.
"
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Yovan Yudhistira Widyananto
"Keamanan privasi data dan informasi dalam internet sering menjadi topik pembahasan dari waktu ke waktu, hal ini dikarenakan metode penyerangan siber selalu berevolusi menyesuaikan dengan struktur keamanan yang ada, menjadikan bidang keamanan siber menjadi bagaikan kompetisi untuk selalu lebih dahulu dari lawannya. Salah satu contoh implementasi keamanan siber merupakan Intrusion Detection System, dikenal juga dengan IDS. IDS dapat membantu menjaga sebuah jaringan dengan mendeteksi jika ada tanda-tanda penyerangan, namun dengan ini saja tidak cukup untuk memaksimalkan keamanan sebuah jaringan. Dari dasar IDS ini, sebuah proyek mencoba mengembangkan konsepnya dan membuat struktur besar, dan berhasil diciptakan proyek Mata Elang. Struktur Mata Elang dapat menjadi perantara antara internet dengan jaringan yang dilindunginya, dan ketika terjadi serangan, aktivitas tersebut akan dideteksi, ditahan, dan diproses oleh Mata Elang. Sistem deteksi Mata Elang bergantung kepada framework Snort. Sayangnya, Snort tidak memiliki kemampuan untuk beradaptasi di luar dari konfigurasi yang telah diberikan kepadanya. Dalam penelitian ini, penulis akan mengimplementasikan Machine Learning untuk meningkatkan keamanan yang diberikan pada proyek Mata Elang, spesifiknya pada sensornya yang menggunakan Snort. Setelah segala proses perancangan, pembuatan, dan pengujian telah dilakukan, hasil akhir yang didapatkan dari sistem Machine Learning merupakan sistem prediksi yang memuaskan untuk memprediksi kategori serangan bahkan dengan dukungan data yang lemah, namun kemampuan dari aturan Snort yang dihasilkan masih belum diuji dengan matang.

The talk about the security of private data and information will continue to be a relevant topic because of the nature of the concept. Cyberattacks have always been adapting according to the technology and structure that exists at the time, and so cybersecurity will continue to be a competition for gaining the advantage against their contrarian. One of the prime examples in cybersecurity implementation is Intrustion Detection Systems, also known as the shortened term, IDS. IDS can help guard a network by detecting different kinds of anomalies or attacks, although this alone wouldn’t be enough to maximize the level of proper security necessary for a whole network. Under the basic concept of IDS, a project attempts to develop an IDS and create a larger structure. The project was successfully implemented and now titled as Mata Elang. Mata Elang’s structure is an intermediary between an internet connection and the network it is connected to, and when an attack happens, those activities will be detected, interrupted, and then processed by Mata Elang. Mata Elang’s detection system completely relies on the framework Snort. Unfortunately, Snort does not have the capabilities to adapt outside the configurations that has been given to it. In this research, the writer will implement Machine Learning to further increase the security provided by Mata Elang, specifically on the sensors that uses Snort. After every step of the planning, making, and testing has been done the final result of the product was a Machine Learning system that has a satisfactory performance in categorizing the attacks, even with a weak supporting data, however the performance of the snort rules generated by it has not been tested thoroughly.
"
Depok: Fakultas Teknik Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
<<   1 2 3 4 5 6 7 8 9 10   >>