Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 8 dokumen yang sesuai dengan query
cover
Fransisco William Sudianto
"Perkembangan LargeLanguageModel (LLM) terjadisecaracepatdanmengalami kemajuanyangsignifikan.HalinimendorongpenggunaandanpemanfaatanLLM pada berbagaibidang.Disisilain, KnowledgeGraph (KG) menyediakancarayang terstruktur danbermaknauntukmenyimpaninformasi.KGsudahbanyakdigunakan secara luasdiberbagaiaplikasi,sepertimesinpencari,sistemrekomendasi,dansistem penjawabpertanyaan.SalahsatupemanfaatanLLMdanKGyangmasihjarangadalah pada bidangjurnalistik,khususnyauntukmenganalisisdanmemvisualisasikanberita. Penelitian inibertujuanuntukmengembangkanalatekstraksiinformasiyangefisien, akurat, daninteraktifuntukmenganalisisteksberitamenggunakanpendekatangabungan antara LLMdanKG.Metodeinimenggabungkankeunggulankeduatekniktersebut untuk meningkatkanpemahamandanekstraksiinformasidariteksberitayangkompleks. Tujuannyaadalahagarpembacadapatmemahamiinformasiyangterdapatpadateks berita denganlebihinteraktif.PenulismemanfaatkanLLMyangtelahterlatihsecara luas dalammemahamidanmenghasilkanteksuntukmengidentifikasiinformasipenting dalam teksberita,sepertientitas,sentimen,kutipan,relasiantarentitas,danunsur5W1H (Who, What, Where, When, Why, How), urutankronologiskejadian,danhubungan bagian-keseluruhan(mereology) dalamteksberita.Untukmengekstraksiinformasiterse- but, prompt dimodifikasi denganmenggunakanpendekatan one-shot-prompting untuk memberikan konteksdancontohkepadaLLMdalammemahamiteksberita.Kemudian, informasi yangdiekstraksidivisualisasikandalambentukKGyangmerepresentasikan pengetahuan terstrukturtentangentitasdanhubungannyadidalamteks.Selainitu, penelitian melibatkanpembuatansebuahwebsiteyangakanmenyediakanantarmuka untuk sistemagarpenggunadapatmelakukananalisisteksberitasecaralangsungdan interaktif. Evaluasiutamayangdilakukanpadapenelitianiniadalahmengukurakurasi jawabanyangdihasilkanolehLLMpadasetiapbagianinformasiyangdiekstraksi dan bagaimanavisualisasiKGyangbaikuntukinformasiyangdidapat.Penelitianini menunjukkan bahwaLLMmampumengekstraksiinformasiyangdiinginkandengan cukup akuratdanvisualisasiKGdapatmenyajikaninformasidenganlebihinteraktif dan mudahdimengerti.PenelitianinitelahmenunjukkanbahwaLLMdanKGdapat dimanfaatkansebagaialatekstraksidanvisualisasiinformasiyangadapadateksberita.

The developmentoftheLargeLanguageModel(LLM)israpidlyoccurringandex- periencing significantprogress.ThisencouragestheuseandutilizationofLLMin variousfields.Ontheotherhand,KnowledgeGraph(KG)providesastructuredand meaningful waytostoreinformation.KGhasbeenwidelyusedinvariousapplications, such assearchengines,recommendationsystems,andquestionansweringsystems. One utilizationofLLMandKGthatisstillrarelyusedisinthefieldofjournalism, especially foranalyzingandvisualizingnews.Thisresearchaimstodevelopaneffective, interactive,andaccurateinformationextractiontoolforanalyzingnewstextsusing a combinedapproachbetweenLLMandKG.Thismethodcombinestheadvantages of bothtechniquestoimprovetheunderstandingandextractionofinformationfrom complexnewstexts.Thegoalisforreaderstounderstandtheinformationcontainedin the newstextinteractively.TheauthorutilizesLLMswhohavebeenextensivelytrained in understandingandgeneratingtextstoidentifyimportantinformationinnewstexts, such asentities,sentiments,quotes,relationsbetweenentities,and5W1H(Who,What, Where, When,Why,How),chronologicalorderofevents,andpart-wholerelationships (mereology) elementsinnewstexts.Toextractthatinformation,thepromptwasmodified by usingaone-shot-promptingapproachtoprovidecontextandexamplestoLLMsin understanding thenewstext.Then,theextractedinformationisusedtobuildaKGthat represents structuredknowledgeaboutentitiesandrelationshipsinthetext.Inaddition, the developmentplaninvolvescreatingawebsitethatwillprovideaninterfaceforthis system toallowuserstoperformliveandinteractivenewstextanalysis.Themain evaluationconductedinthisresearchistomeasuretheaccuracyoftheanswersgenerated by LLMoneachpieceofinformationextractedandhowgoodKGvisualizationisfor the informationobtained.ThisresearchshowsthatLLMisabletoextractthedesired information quiteaccuratelyandKGvisualizationcanpresentinformationinamore interactiveandeasytounderstandmanner.ThisresearchhasshownthatLLMandKG can beusedasinformationextractionandvisualizationtoolsinnewstexts."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2024
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Fikri Aufaa Zain
"Dalam beberapa tahun terakhir, teknologi chatbot telah berkembang secara signifikan, dengan munculnya Large Language Model (LLM) seperti GPT dari OpenAI, Llama dari Meta, dan Gemini dari Google. Penelitian ini mengeksplorasi penerapan chatbot berbasis LLM dalam dunia medis, khususnya untuk membantu dan memantau pasien hemodialisis. Menggunakan kerangka kerja seperti LangChain untuk melakukan prompt engineering, Retrieval Augmented Generation (RAG) untuk meningkatkan pengetahuan domain, dan Chroma sebagai vector database, platform chatbot berbasis web dikembangkan. Pendekatan ReAct dan chain-of-thought (CoT) diterapkan untuk membuat sistem berbasis agen. Evaluasi kuantitatif dari penelitian ini akan menggunakan ROUGE, BLEU, dan SAS untuk sistem chatbot, dan MAP@3, dan MRR@3 digunakan untuk sistem RAG, bersama dengan penilaian kualitatif oleh ahli di bidang hemodialisis. Secara keseluruhan, evaluasi kualitatif dan kuantitatif untuk setiap sistem menerima umpan balik positif berdasarkan penilaian ahli dan hasil dari setiap metrik, yang menunjukkan bahwa kedua sistem berkinerja baik dalam menghasilkan tanggapan yang selaras dengan tujuan penelitian ini, yaitu memberikan tanggapan yang akurat dan membantu dalam memantau pasien. Dari sisi sistem, kemampuan chatbot dan sistem RAG dalam memahami konteks percakapan dan memberikan tanggapan yang lebih relevan dan informatif, menggunakan pendekatan berbasis agen yang ditingkatkan oleh RAG, memberikan keuntungan yang signifikan. Prompt yang kami gunakan, ReAct dan CoT, memungkinkan agen berbasis LLM untuk berpikir lebih efektif, membuat keputusan yang tepat, dan mensimulasikan proses berpikir yang lebih terstruktur dan logis. Dengan memanfaatkan peningkatan ini, chatbot juga dapat menghasilkan pesan urgensi medis untuk memperingatkan tim medis yang terhubung ke platform. Hal ini memungkinkan mereka untuk merespons keadaan darurat ketika pasien melaporkan gejala yang membutuhkan perawatan lebih lanjut di rumah sakit. Penelitian ini telah menunjukkan bahwa LLM dapat digunakan secara efektif sebagai chatbot di bidang kesehatan, khususnya untuk memantau pasien hemodialisis.

In recent years, chatbot technology has advanced significantly, with the rise of Large Language Models (LLMs) such as OpenAI’s GPT, Meta’s Llama, and Google’s Gemini. This research explores the application of LLM-based chatbots in healthcare, specifically for assisting and monitoring hemodialysis patients. Using frameworks like LangChain for prompt engineering, Retrieval Augmented Generation (RAG) for enhanced domain knowledge, and Chroma as a vector database, a web-based chatbot platform was developed. The ReAct and chain-of-thought (CoT) approaches were applied to create an agent-based system. The quantitative evaluation of this research will use ROUGE, BLEU, and SAS for the chatbot system, and MAP@3, and MRR@3 were used for the RAG systems, along with qualitative expert assessments. Overall, the qualitative and quantitative evaluations for each system received positive feedback based on expert judgment and the results of each metrics, indicating that both systems performed well in generating responses aligned with the goals of this research, which are to provide accurate responses and assist in monitoring patients. On the system side, the chatbot and RAG system’s ability to understand conversational context and provide more relevant and informative responses, using agent-based approaches enhanced by RAG, offers a clear advantage. The prompts we are using, ReAct and CoT, enable the agent-based LLM to think more effectively, make appropriate decisions, and simulate a more structured and logical thought process. By utilizing these enhancements, the chatbot can also generate medical urgency message to alert medical teams connected to the platform. This allows them to respond to emergencies when patients report symptoms that require further care at a hospital. This research has demonstrated that LLMs can be effectively utilized as chatbots in the healthcare field, specifically for monitoring hemodialysis patients."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2024
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Adhin Abdallah Muhammad Sidik
"Dalam beberapa tahun terakhir, teknologi chatbot telah berkembang secara signifikan, dengan munculnya Large Language Model (LLM) seperti GPT dari OpenAI, Llama dari Meta, dan Gemini dari Google. Penelitian ini mengeksplorasi penerapan chatbot berbasis LLM dalam dunia medis, khususnya untuk membantu dan memantau pasien hemodialisis. Menggunakan kerangka kerja seperti LangChain untuk melakukan prompt engineering, Retrieval Augmented Generation (RAG) untuk meningkatkan pengetahuan domain, dan Chroma sebagai vector database, platform chatbot berbasis web dikembangkan. Pendekatan ReAct dan chain-of-thought (CoT) diterapkan untuk membuat sistem berbasis agen. Evaluasi kuantitatif dari penelitian ini akan menggunakan ROUGE, BLEU, dan SAS untuk sistem chatbot, dan MAP@3, dan MRR@3 digunakan untuk sistem RAG, bersama dengan penilaian kualitatif oleh ahli di bidang hemodialisis. Secara keseluruhan, evaluasi kualitatif dan kuantitatif untuk setiap sistem menerima umpan balik positif berdasarkan penilaian ahli dan hasil dari setiap metrik, yang menunjukkan bahwa kedua sistem berkinerja baik dalam menghasilkan tanggapan yang selaras dengan tujuan penelitian ini, yaitu memberikan tanggapan yang akurat dan membantu dalam memantau pasien. Dari sisi sistem, kemampuan chatbot dan sistem RAG dalam memahami konteks percakapan dan memberikan tanggapan yang lebih relevan dan informatif, menggunakan pendekatan berbasis agen yang ditingkatkan oleh RAG, memberikan keuntungan yang signifikan. Prompt yang kami gunakan, ReAct dan CoT, memungkinkan agen berbasis LLM untuk berpikir lebih efektif, membuat keputusan yang tepat, dan mensimulasikan proses berpikir yang lebih terstruktur dan logis. Dengan memanfaatkan peningkatan ini, chatbot juga dapat menghasilkan pesan urgensi medis untuk memperingatkan tim medis yang terhubung ke platform. Hal ini memungkinkan mereka untuk merespons keadaan darurat ketika pasien melaporkan gejala yang membutuhkan perawatan lebih lanjut di rumah sakit. Penelitian ini telah menunjukkan bahwa LLM dapat digunakan secara efektif sebagai chatbot di bidang kesehatan, khususnya untuk memantau pasien hemodialisis.

In recent years, chatbot technology has advanced significantly, with the rise of Large Language Models (LLMs) such as OpenAI’s GPT, Meta’s Llama, and Google’s Gemini. This research explores the application of LLM-based chatbots in healthcare, specifically for assisting and monitoring hemodialysis patients. Using frameworks like LangChain for prompt engineering, Retrieval Augmented Generation (RAG) for enhanced domain knowledge, and Chroma as a vector database, a web-based chatbot platform was developed. The ReAct and chain-of-thought (CoT) approaches were applied to create an agent-based system. The quantitative evaluation of this research will use ROUGE, BLEU, and SAS for the chatbot system, and MAP@3, and MRR@3 were used for the RAG systems, along with qualitative expert assessments. Overall, the qualitative and quantitative evaluations for each system received positive feedback based on expert judgment and the results of each metrics, indicating that both systems performed well in generating responses aligned with the goals of this research, which are to provide accurate responses and assist in monitoring patients. On the system side, the chatbot and RAG system’s ability to understand conversational context and provide more relevant and informative responses, using agent-based approaches enhanced by RAG, offers a clear advantage. The prompts we are using, ReAct and CoT, enable the agent-based LLM to think more effectively, make appropriate decisions, and simulate a more structured and logical thought process. By utilizing these enhancements, the chatbot can also generate medical urgency message to alert medical teams connected to the platform. This allows them to respond to emergencies when patients report symptoms that require further care at a hospital. This research has demonstrated that LLMs can be effectively utilized as chatbots in the healthcare field, specifically for monitoring hemodialysis patients."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2024
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Keyza Asyadda Ramadhan Mufron
"Berdasarkan UU Nomor 12 Tahun 2011, peraturan perundang-undangan harus ditempatkan dalam beberapa media agar dapat diakses seluruh warga. Akan tetapi, beberapa layanan resmi memiliki isu efisiensi bagi pengguna untuk mencari informasi antar peraturan hukum. Solusi alternatif sistem tanya jawab hukum berbasis knowledge graph, yaitu LexID QA memiliki keterbatasan pada pertanyaan yang lebih ekspresif. Penelitian ini mengusulkan sistem tanya jawab hukum berbasis LLM dengan knowledge graph LexID melalui few-shot prompting. Sistem yang dibangun menerjemahkan pertanyaan menjadi kueri SPARQL. Sistem terdiri dari dua komponen, yaitu tanya jawab dan entity linking. Entity linking dilakukan dengan model berbahasa Indonesia untuk memetakan pertanyaan yang diberikan pengguna menjadi pemetaan entitas dan IRI. Kemudian, tanya jawab dilakukan dengan model code generation untuk menerjemahkan pertanyaan beserta informasi entity linking menjadi kueri SPARQL, bahasa kueri knowledge graph.

Based on Act 12/2011, legal document must be placed in several medias for citizen to access it. However, government services have shortcoming in efficiently retrieving information involving two or more legal documents. Existing solution to this issue is LexID QA yet unable to process more expressive question. This research proposes knowledge graph legal question answering based on LLM utilizing few-shot prompting. Proposed system is expected to transform question into SPARQL query. Proposed system is composed of two components, that is question answering and entity linking. Entity linking utilize Indonesian LLM to map user's question into entity-IRI mapping. Question answering model then translate question to SPARQL query with entity linking as an additional context."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2024
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Sulthan Afif Althaf
"Large Language Model (LLM) generatif merupakan jenis model machine learning yang dapat diaplikasikan dalam industri jurnalisme, khususnya dalam proses pembuatan dan validasi berita. Namun, LLM memerlukan sumber daya yang besar untuk operasionalnya serta membutuhkan waktu proses inferensi yang relatif lama. Penelitian ini bertujuan untuk mengembangkan layanan web machine learning yang memanfaatkan LLM generatif untuk proses pembuatan dan validasi berita. Tujuan lainnya adalah menciptakan sistem dengan mekanisme manajemen beban yang efisien untuk meminimalkan waktu inferensi. Pengembangan melibatkan beberapa tahap, yakni analisis kebutuhan stakeholder, perancangan desain dan arsitektur, implementasi, serta evaluasi. Dalam implementasi layanan web machine learning, pengembangan ini berfokus pada manajemen GPU untuk meningkatkan kecepatan proses inferensi LLM. Selain itu, dilakukan implementasi design pattern untuk meningkatkan skalabilitas dalam penambahan model machine learning. Untuk manajemen beban, dikembangkan dua mekanisme, yaitu load balancer dan scheduler. Implementasi load balancer memanfaatkan NGINX dengan metode round-robin. Sedangkan untuk scheduler, digunakan RabbitMQ sebagai antrean, dengan publisher menerima permintaan dan subscriber mendistribusikan permintaan ke layanan yang tersedia. Berdasarkan API Test, layanan ini berhasil melewati uji fungsionalitas dengan waktu respons API sekitar 1-2 menit per permintaan. Evaluasi performa pada kedua mekanisme manajemen beban menunjukkan tingkat keberhasilan 100%, dengan waktu respon rata-rata meningkat seiring dengan peningkatan jumlah request per detik. Pengelolaan beban dengan load balancer menghasilkan waktu respon yang lebih cepat, sementara pengelolaan beban dengan scheduler menghasilkan mekanisme yang lebih efektif pada proses koneksi asinkron.

Generative Large Language Model (LLM) is a type of machine learning model that can be applied in the journalism industry, especially in the process of news generation and validation. However, LLM requires large resources for its operation and requires a relatively long inference process time. This research aims to develop a machine learning web service that utilizes generative LLM for news generation and validation. Another goal is to create a system with an efficient load management mechanism to minimize inference time. The development involves several stages, namely stakeholder needs analysis, design and architecture, implementation, and evaluation. In the implementation of machine learning web services, this development focuses on GPU management to increase the speed of the LLM inference process. In addition, the implementation of design patterns is done to improve scalability in adding machine learning models. For load management, two mechanisms are developed: load balancer and scheduler. The load balancer implementation utilizes NGINX with the round-robin method. As for the scheduler, RabbitMQ is used as a queue, with the publisher receiving requests and the subscriber distributing requests to available services. Based on the API Test, the service successfully passed the functionality test with an API response time of about 1-2 minutes per request. Performance evaluation on both load management mechanisms showed a 100% success rate, with the average response time increasing as the number of requests per second increased. The use of a load balancer results in faster response times, while load management with a scheduler results in a more effective mechanism for asynchronous connection processes."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2024
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Denny Johannes Hasea
"Agen customer service tidak dapat beroperasi 24 jam sehari, sehingga diperlukan sebuah program untuk mengatasi masalah ini, salah satunya adalah chatbot. Sejak munculnya makalah "Attention is All You Need", kualitas chatbot telah meningkat secara signifikan. Salah satu kegunaan utama chatbot adalah untuk menyediakan customer service 24 jam, sehingga memungkinkan agen customer service untuk fokus pada pertanyaan yang lebih kompleks. Untuk mengembangkan chatbot yang efektif yang dapat menjawab pertanyaan pelanggan, diperlukan data percakapan antara pelanggan dan agen, serta model pembelajaran mesin yang dilatih pada data ini. Dalam penelitian ini, eksperimen dilakukan menggunakan empat model yang berbeda: T5, BART, DistilGPT2, dan GPT2, untuk menentukan model terbaik yang dapat memberikan jawaban yang relevan kepada pelanggan. Model-model ini dievaluasi menggunakan metrik BLEU dan ROUGE untuk menentukan kualitas terbaik. Hasil eksperimen menunjukkan bahwa GPT2 adalah model terbaik untuk keperluan customer service. Untuk membuat model ini dapat diakses oleh pelanggan, diperlukan sebuah aplikasi web. Aplikasi web ini dikembangkan dengan menguji tiga frontend framework: Next.js, Vue.js, dan Angular, serta tiga backend framework: FastAPI, Flask, dan Django, untuk menentukan kombinasi yang memberikan respons tercepat. Frontend framework dievaluasi menggunakan Google Lighthouse. Backend framework dievaluasi menggunakan metrik Average Response Time. Hasil eksperimen menunjukkan bahwa Next.js adalah frontend framework terbaik dan FastAPI adalah backend framework terbaik. Untuk menangani sejumlah besar pelanggan secara bersamaan, chatbot ini memerlukan infrastruktur yang memungkinkan penggunaan paralel. Infrastruktur disediakan menggunakan Terraform untuk mengurangi langkah-langkah pengembangan dan memfasilitasi replikasi infrastruktur yang dikembangkan. Infrastruktur yang diuji adalah mikroservis dan monolitik, keduanya dapat diskalakan. Infrastruktur ini dievaluasi menggunakan metrik waktu respons dan tingkat kegagalan. Hasil eksperimen menunjukkan bahwa arsitektur monolitik cukup untuk menangani chatbot.

Customer service agents cannot operate 24 hours a day, thus a program is needed to address this issue, one of which is a chatbot. Since the emergence of the paper "Attention is All You Need", the quality of chatbots has improved significantly. One of the main uses of chatbots is to provide 24-hour customer service, thus allowing customer service agents to focus on more complex inquiries. To develop an effective chatbot that can answer customer questions, conversation data between customers and agents, as well as a machine learning model trained on this data, are required. In this research, experiments were conducted using four different models: T5, BART, DistilGPT2, and GPT2, to determine the best model that can provide relevant answers to customers. These models were evaluated using BLEU and ROUGE metrics to determine the best quality. The experimental results showed that GPT2 is the best model for customer service purposes. To make this model accessible to customers, a website is required. This website was developed by testing three frontend frameworks: Next.js, Vue.js, and Angular, and three backend frameworks: FastAPI, Flask, and Django, to determine the combination that provides the fastest response. The frontend frameworks were evaluated using Google Lighthouse. The backend frameworks were evaluated using the Average Response Time metric. The experimental results showed that Next.js is the best frontend framework and FastAPI is the best backend framework. To handle a large number of customers simultaneously, this chatbot requires infrastructure that allows parallel usage. Infrastructure is provided using Terraform to reduce development steps and facilitate the replication of developed infrastructure. The tested infrastructures are microservices and monolithic, both of which are scalable. This infrastructure is evaluated using response time and failure rate metrics. The experimental results indicate that the monolithic architecture is sufficient for handling a chatbot."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2024
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Adrian Hakim Utomo
"Agen customer service tidak dapat beroperasi 24 jam sehari, sehingga diperlukan sebuah program untuk mengatasi masalah ini, salah satunya adalah chatbot. Sejak munculnya makalah ”Attention is All You Need”, kualitas chatbot telah meningkat secara signifikan. Salah satu kegunaan utama chatbot adalah untuk menyediakan customer service 24 jam, sehingga memungkinkan agen customer service untuk fokus pada pertanyaan yang lebih kompleks. Untuk mengembangkan chatbot yang efektif yang dapat menjawab pertanyaan pelanggan, diperlukan data percakapan antara pelanggan dan agen, serta model pembelajaran mesin yang dilatih pada data ini. Dalam penelitian ini, eksperimen dilakukan menggunakan empat model yang berbeda: T5, BART, DistilGPT2, dan GPT2, untuk menentukan model terbaik yang dapat memberikan jawaban yang relevan kepada pelanggan. Model-model ini dievaluasi menggunakan metrik BLEU dan ROUGE untuk menentukan kualitas terbaik. Hasil eksperimen menunjukkan bahwa GPT2 adalah model terbaik untuk keperluan customer service. Untuk membuat model ini dapat diakses oleh pelanggan, diperlukan sebuah aplikasi web. Aplikasi web ini dikembangkan dengan menguji tiga frontend framework: Next.js, Vue.js, dan Angular, serta tiga backend framework: FastAPI, Flask, dan Django, untuk menentukan kombinasi yang memberikan respons tercepat. Frontend framework dievaluasi menggunakan Google Lighthouse. Backend framework dievaluasi menggunakan metrik Average Response Time. Hasil eksperimen menunjukkan bahwa Next.js adalah frontend framework terbaik dan FastAPI adalah backend framework terbaik. Untuk menangani sejumlah besar pelanggan secara bersamaan, chatbot ini memerlukan infrastruktur yang memungkinkan penggunaan paralel. Infrastruktur disediakan menggunakan Terraform untuk mengurangi langkah-langkah pengembangan dan memfasilitasi replikasi infrastruktur yang dikembangkan. Infrastruktur yang diuji adalah mikroservis dan monolitik, keduanya dapat diskalakan. Infrastruktur ini dievaluasi menggunakan metrik waktu respons dan tingkat kegagalan. Hasil eksperimen menunjukkan bahwa arsitektur monolitik cukup untuk menangani chatbot.

Customer service agents cannot operate 24 hours a day, thus a program is needed to address this issue, one of which is a chatbot. Since the emergence of the paper ”Attention is All You Need”, the quality of chatbots has improved significantly. One of the main uses of chatbots is to provide 24-hour customer service, thus allowing customer service agents to focus on more complex inquiries. To develop an effective chatbot that can answer customer questions, conversation data between customers and agents, as well as a machine learning model trained on this data, are required. In this research, experiments were conducted using four different models: T5, BART, DistilGPT2, and GPT2, to determine the best model that can provide relevant answers to customers. These models were evaluated using BLEU and ROUGE metrics to determine the best quality. The experimental results showed that GPT2 is the best model for customer service purposes. To make this model accessible to customers, a website is required. This website was developed by testing three frontend frameworks: Next.js, Vue.js, and Angular, and three backend frameworks: FastAPI, Flask, and Django, to determine the combination that provides the fastest response. The frontend frameworks were evaluated using Google Lighthouse. The backend frameworks were evaluated using the Average Response Time metric. The experimental results showed that Next.js is the best frontend framework and FastAPI is the best backend framework. To handle a large number of customers simultaneously, this chatbot requires infrastructure that allows parallel usage. Infrastructure is provided using Terraform to reduce development steps and facilitate the replication of developed infrastructure. The tested infrastructures are microservices and monolithic, both of which are scalable. This infrastructure is evaluated using response time and failure rate metrics. The experimental results indicate that the monolithic architecture is sufficient for handling a chatbot."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2024
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Muhammad Rifqi Praditya
"Agen customer service tidak dapat beroperasi 24 jam sehari, sehingga diperlukan sebuah program untuk mengatasi masalah ini, salah satunya adalah chatbot. Sejak munculnya makalah "Attention is All You Need", kualitas chatbot telah meningkat secara signifikan. Salah satu kegunaan utama chatbot adalah untuk menyediakan customer service 24 jam, sehingga memungkinkan agen customer service untuk fokus pada pertanyaan yang lebih kompleks. Untuk mengembangkan chatbot yang efektif yang dapat menjawab pertanyaan pelanggan, diperlukan data percakapan antara pelanggan dan agen, serta model pembelajaran mesin yang dilatih pada data ini. Dalam penelitian ini, eksperimen dilakukan menggunakan empat model yang berbeda: T5, BART, DistilGPT2, dan GPT2, untuk menentukan model terbaik yang dapat memberikan jawaban yang relevan kepada pelanggan. Model-model ini dievaluasi menggunakan metrik BLEU dan ROUGE untuk menentukan kualitas terbaik. Hasil eksperimen menunjukkan bahwa GPT2 adalah model terbaik untuk keperluan customer service. Untuk membuat model ini dapat diakses oleh pelanggan, diperlukan sebuah aplikasi web. Aplikasi web ini dikembangkan dengan menguji tiga frontend framework: Next.js, Vue.js, dan Angular, serta tiga backend framework: FastAPI, Flask, dan Django, untuk menentukan kombinasi yang memberikan respons tercepat. Frontend framework dievaluasi menggunakan Google Lighthouse. Backend framework dievaluasi menggunakan metrik Average Response Time. Hasil eksperimen menunjukkan bahwa Next.js adalah frontend framework terbaik dan FastAPI adalah backend framework terbaik. Untuk menangani sejumlah besar pelanggan secara bersamaan, chatbot ini memerlukan infrastruktur yang memungkinkan penggunaan paralel. Infrastruktur disediakan menggunakan Terraform untuk mengurangi langkah-langkah pengembangan dan memfasilitasi replikasi infrastruktur yang dikembangkan. Infrastruktur yang diuji adalah mikroservis dan monolitik, keduanya dapat diskalakan. Infrastruktur ini dievaluasi menggunakan metrik waktu respons dan tingkat kegagalan. Hasil eksperimen menunjukkan bahwa arsitektur monolitik cukup untuk menangani chatbot.

Customer service agents cannot operate 24 hours a day, thus a program is needed to address this issue, one of which is a chatbot. Since the emergence of the paper "Attention is All You Need", the quality of chatbots has improved significantly. One of the main uses of chatbots is to provide 24-hour customer service, thus allowing customer service agents to focus on more complex inquiries. To develop an effective chatbot that can answer customer questions, conversation data between customers and agents, as well as a machine learning model trained on this data, are required. In this research, experiments were conducted using four different models: T5, BART, DistilGPT2, and GPT2, to determine the best model that can provide relevant answers to customers. These models were evaluated using BLEU and ROUGE metrics to determine the best quality. The experimental results showed that GPT2 is the best model for customer service purposes. To make this model accessible to customers, a website is required. This website was developed by testing three frontend frameworks: Next.js, Vue.js, and Angular, and three backend frameworks: FastAPI, Flask, and Django, to determine the combination that provides the fastest response. The frontend frameworks were evaluated using Google Lighthouse. The backend frameworks were evaluated using the Average Response Time metric. The experimental results showed that Next.js is the best frontend framework and FastAPI is the best backend framework. To handle a large number of customers simultaneously, this chatbot requires infrastructure that allows parallel usage. Infrastructure is provided using Terraform to reduce development steps and facilitate the replication of developed infrastructure. The tested infrastructures are microservices and monolithic, both of which are scalable. This infrastructure is evaluated using response time and failure rate metrics. The experimental results indicate that the monolithic architecture is sufficient for handling a chatbot."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2024
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library