Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 16 dokumen yang sesuai dengan query
cover
Salomo, Roy Godsend
"Citra buram atau blur dapat terjadi akibat gerakan objek, lensa kamera alat akuisisi yang kehilangan fokus, atau getaran saat akuisisi citra. Buram membuat citra menjadi kurang tajam dan tidak fokus pada beberapa bagian pada citra. Buram pada citra mengakibatkan terjadinya penurunan kualitas dan informasi citra sehingga menyebabkan penurunan performa aplikasi computer vision seperti deteksi objek, identifikasi objek, dan klasifikasi. Hal tersebut membuat banyak dikembangkan penelitian restorasi citra buram untuk mengembalikan kualitas citra yang terdegradasi, mulai dari penggunaan metode konvensional hingga metode berbasis pembelajaran mesin. Pada penelitian ini, penulis menggunakan model Swin Transformer UNet dalam merestorasi citra buram. Model ini berbasis Swin Transformer yang diintegrasikan dengan arsitektur UNet. Data citra yang digunakan dalam penelitian ini adalah dataset buram Dual-pixel Defocus Debluring(DPDD) dan Real Depth Of Field(RealDOF). Analisis dilakukan terhadap hasil restorasi citra model secara kuantitatif dan kualitatif. Selain itu, , penulis juga melaksanakan analisis cross dataset untuk melihat kemampuan generalisasi model. Hasil restorasi dibandingkan dengan hasil restorasi model Iterative Filter Adaptive Network(IFAN) yang dianggap sebagai state-of-the-art dalam merestorasi citra buram. Evaluasi hasil restorasi Swin Transformer UNet menunjukkan bahwa model tersebut berhasil mendeteksi daerah buram pada citra dengan baik namun hasil restorasi yang didapat belum sebaik hasil restorasi pada model IFAN dalam merestorasi citra buram pada dataset yang digunakan.

Blurred images can occur from the motion of the photographed object, the camera lens of the acquisition tool losing focus, or vibration during image acquisition. Blurring makes the image less sharp and unfocused on some parts of the image. Blur in images results in a decrease in image quality and information, causing a decrease in the performance of computer vision tasks such as object detection, object identification, and classification. This has led to the development of many deblurring image restoration studies to restore the quality of degraded images or image restoration, ranging from the use of conventional methods to machine learning-based methods. In this research, the author uses the Swin Transformer UNet model to restore blurry images. This model is based on Swin Transformer integrated with UNet architecture. The images used in this research come from the Dual-pixel Defocus Debluring (DPDD) and Real Depth Of Field (RealDOF) blur image datasets. The image restoration results are analyzed quantitatively and qualitatively. Additionally, the author also conducts a cross-dataset analysis to see the generalization potential of the model. The restoration results were compared with the restoration results of the Iterative Filter Adaptive Network (IFAN) model which is considered as state-of-the-art in image deblurring. The evaluation of the Swin Transformer UNet restoration model shows that the model successfully detects blurred regions in the image well but the restoration results obtained are not as good as the restoration results in the IFAN model in restoring blurred images on the dataset used."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2022
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Jonathan Amadeus Hartman
"Aksara Pegon merupakan aksara Arab yang dimodifikasi untuk menulis bahasa Jawa, Sunda, dan Madura. Koleksi manuskrip aksara ini telah tersebar di seluruh Indonesia dan mancanegara, tetapi sayangnya belum ada platform digital yang dapat menyatukan koleksi-koleksi berharga tersebut. Salah satu jenis platform yang cocok digunakan untuk memuat metadata manuskrip secara lengkap dan mendukung kontribusi manuskrip dari pengguna adalah document management system (DMS). Oleh sebab itu, penelitian ini bertujuan untuk mengembangkan DMS untuk manuskrip Pegon yang dapat digunakan oleh para kolektor, santri, dan orang awam. Penelitian ini menggunakan metode requirement gathering untuk memahami kebutuhan pengguna terhadap DMS Pegon. Wawancara dengan calon pengguna dan benchmarking dengan aplikasi DMS lain dilakukan untuk membuat rancangan fitur dan antarmuka aplikasi. Hasil evaluasi rancangan fitur menunjukkan bahwa fitur-fitur yang akan diimplementasikan telah memenuhi kebutuhan calon pengguna. Lalu, hasil requirement gathering dijadikan dasar penyusunan product backlog item (PBI), pemilihan teknologi, dan rancangan arsitektur DMS Pegon. Proses pengembangan dilakukan dalam dua tahap, backend dan frontend dengan menerapkan metode Kanban. Implementasi DMS Pegon menggunakan arsitektur yang terkontainerisasi dalam Docker, meliputi Next.js, Strapi, Meilisearch, dan PostgreSQL. Sesudah tahap pengembangan usai, kriteria penerimaan dan nilai bisnis dari setiap item PBI digunakan sebagai ekspektasi pada evaluasi fungsionalitas. Hasilnya menunjukkan bahwa seluruh pengujian telah memenuhi ekspektasi dan arsitektur sistem serta seluruh fitur DMS Pegon telah berjalan sesuai dengan kebutuhan pengguna.

Pegon script is an adapted Arabic script used to write the Javanese, Sundanese, and Madurese languages. The manuscript collection of this script has been scattered throughout Indonesia and abroad, but unfortunately, there is no digital platform yet that can unite these valuable collections. One suitable platform to house complete manuscript metadata and support user contributions is a document management system (DMS). Therefore, this research aims to develop a DMS for Pegon manuscripts that can be used by collectors, traditional Muslim school students, and the general public. This research utilizes requirement gathering method to understand users’ needs for Pegon DMS. Interviews with potential users and benchmarking with other DMS applications were conducted to design the features and application interface. The evaluation of the feature design showed that the proposed features meet the needs of potential users. Based on the results of the requirement gathering process, product backlog items (PBI), technology selection, and Pegon DMS architecture were formulated. The development process was carried out in two phases, backend and frontend, using Kanban method. The implementation of the Pegon DMS utilized a containerized architecture within Docker, including Next.js, Strapi, Meilisearch, and PostgreSQL. After the development phase, acceptance criteria and business value for each PBI item were used as expectations in the functionality evaluation. The results showed that all tests met the expectations. Thus, the system architecture and all Pegon DMS features are in line with user requirements."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Akmal Farhan Raiyan
"Kabut merupakan fenomena alami yang diakibatkan oleh keberadaan partikel kecil di atmosfer. Kabut yang ada di atmosfer dapat mengurangi kontras dan mendistorsi warna hasil citra yang diambil dalam kondisi alami. Keberadaan kabut pada citra sangat mengganggu aplikasi computer vision maupun fotografi konsumen. Sebagian besar algoritma computer vision memerlukan citra yang jernih untuk dapat berfungsi dengan baik, sehingga diperlukanlah teknik untuk menghilangkan kabut dari citra. Image dehazing bertujuan untuk memulihkan citra jernih dari citra yang dirusak oleh kabut. Image dehazing dapat dilakukan menggunakan model machine learning. Dewasa ini, banyak model machine learning yang digunakan berbasiskan arsitektur Vision Transformer. Penelitian sebelumnya mengenai Vision Transformer menunjukkan bahwa model Transformer dapat berkinerja lebih baik dibandingkan model state-of-the-art ResNet untuk image recognition jika dilatih menggunakan dataset yang besar. Pada penelitian ini, model Uformer dilatih menggunakan dataset citra berkabut dengan ukuran yang besar. Dilakukan juga implementasi Restormer untuk sebagai model alternatif untuk merestorasi citra berkabut. Pengujian kinerja model Uformer dan Restormer dilakukan menggunakan dataset HAZE dan RESIDE. Analisis terhadap model dilakukan secara kualitatif, kuantitatif, dan cross-dataset. Hasil evaluasi model Uformer dan Restormer dibandingkan dengan model Mod PDR-Net Based Conditional Generative Adversarial Network. Evaluasi hasil Uformer dan Restormer menunjukkan bahwa model berbasis Transformer dapat menyaingi Mod PDR-Net Based CGAN untuk restorasi citra berkabut pada dataset testing, namun tidak dapat mengungguli model tersebut dalam pengujian cross-dataset.

Haze is a natural phenomenon caused by the presence of small particles in the atmosphere. Haze present in the atmosphere can reduce the contrast and distort the color of images taken under natural conditions. The presence of haze in an image is detrimental to computer vision applications and consumer photography. Most computer vision algorithms require clear images to function properly, hence the need for techniques to remove haze from images. Image dehazing aims to recover a clear image from an image corrupted by haze. Image dehazing can be done using machine learning models. Nowadays, many machine learning models used for dehazing are based on the Vision Transformer architecture. Previous research on Vision Transformer shows that the Transformer model can perform better than the state-of-the-art ResNet model for image recognition when trained using large datasets. In this research, the Uformer model is trained using large dataset of hazy images. Restormer is also implemented as an alternative model for restoring hazy images. Performance testing of the Uformer and Restormer models was conducted using the HAZE and RESIDE datasets. The models were analyzed qualitatively, quantitatively, and through cross-dataset. The evaluation results of the Uformer and Restormer models are compared with the Mod PDR-Net Based Conditional Generative Adversarial Network model. The evaluation of the Uformer and Restormer shows that Transformer-based models can rival Mod PDR-Net Based CGAN for image dehazing on the testing dataset, but cannot outperform the model in cross-dataset testing.
"
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Mario Ekaputta
"Pekerjaan lepas industri kreatif menjadi tren pekerjaan yang berkembang pesat dalam beberapa tahun terakhir. PT Haloka Group Indonesia sebagai salah satu perusahaan yang bergerak di bidang industri kreatif ingin memanfaatkan momentum ini untuk mengembangkan salah satu brand mereka, Halokarier, melalui sebuah sistem berbasis web. Aplikasi yang dikembangkan berpacu pada beberapa aplikasi pencarian pekerjaan lepas yang sudah beredar, tetapi nantinya pasar aplikasi akan berfokus pada klien dan pekerja lepas lokal. Dilakukanlah requirements gathering dengan mewawancarai beberapa pekerja lepas dan para pemilik bisnis yang sering menggunakan jasa pekerja lepas. Rancangan sistem pun dibuat berdasarkan masukan serta ide yang didapat. Pengembangan aplikasi dilakukan dengan metode waterfall process model. Setelah aplikasi secara fungsional telah siap, dilakukan evaluasi untuk menilai kecocokannya dengan proses bisnis dengan metode User Acceptance Test (UAT). Berdasarkan hasil evaluasi, sistem telah berjalan dengan baik secara fungsional dan dapat ditingkatkan lagi dari segi antarmuka.

Freelancing in creative industry has become a rapidly growing job trend in recent years. PT Haloka Group Indonesia as a company engaged in the creative industry wants to take advantage of this momentum to develop one of their brands, Halokarier, through a web-based platform. The developed application is based on existing freelance’s job searching applications, but the market will focus on local clients and freelancers. Requirements gathering was carried out by interviewing several freelancers and business owners who ofter use the services of freelancers. The system design was made based on the input and ideas obtained. Application development is carried out using the waterfall process model. After the application is functionally ready, an evaluation is carried out to assess its compability with business processes using the User Acceptance Test (UAT) method. Based on the evaluation, the system has run well functionally and can be improved in terms of user interface."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Adhin Abdallah Muhammad Sidik
"Dalam beberapa tahun terakhir, teknologi chatbot telah berkembang secara signifikan, dengan munculnya Large Language Model (LLM) seperti GPT dari OpenAI, Llama dari Meta, dan Gemini dari Google. Penelitian ini mengeksplorasi penerapan chatbot berbasis LLM dalam dunia medis, khususnya untuk membantu dan memantau pasien hemodialisis. Menggunakan kerangka kerja seperti LangChain untuk melakukan prompt engineering, Retrieval Augmented Generation (RAG) untuk meningkatkan pengetahuan domain, dan Chroma sebagai vector database, platform chatbot berbasis web dikembangkan. Pendekatan ReAct dan chain-of-thought (CoT) diterapkan untuk membuat sistem berbasis agen. Evaluasi kuantitatif dari penelitian ini akan menggunakan ROUGE, BLEU, dan SAS untuk sistem chatbot, dan MAP@3, dan MRR@3 digunakan untuk sistem RAG, bersama dengan penilaian kualitatif oleh ahli di bidang hemodialisis. Secara keseluruhan, evaluasi kualitatif dan kuantitatif untuk setiap sistem menerima umpan balik positif berdasarkan penilaian ahli dan hasil dari setiap metrik, yang menunjukkan bahwa kedua sistem berkinerja baik dalam menghasilkan tanggapan yang selaras dengan tujuan penelitian ini, yaitu memberikan tanggapan yang akurat dan membantu dalam memantau pasien. Dari sisi sistem, kemampuan chatbot dan sistem RAG dalam memahami konteks percakapan dan memberikan tanggapan yang lebih relevan dan informatif, menggunakan pendekatan berbasis agen yang ditingkatkan oleh RAG, memberikan keuntungan yang signifikan. Prompt yang kami gunakan, ReAct dan CoT, memungkinkan agen berbasis LLM untuk berpikir lebih efektif, membuat keputusan yang tepat, dan mensimulasikan proses berpikir yang lebih terstruktur dan logis. Dengan memanfaatkan peningkatan ini, chatbot juga dapat menghasilkan pesan urgensi medis untuk memperingatkan tim medis yang terhubung ke platform. Hal ini memungkinkan mereka untuk merespons keadaan darurat ketika pasien melaporkan gejala yang membutuhkan perawatan lebih lanjut di rumah sakit. Penelitian ini telah menunjukkan bahwa LLM dapat digunakan secara efektif sebagai chatbot di bidang kesehatan, khususnya untuk memantau pasien hemodialisis.

In recent years, chatbot technology has advanced significantly, with the rise of Large Language Models (LLMs) such as OpenAI’s GPT, Meta’s Llama, and Google’s Gemini. This research explores the application of LLM-based chatbots in healthcare, specifically for assisting and monitoring hemodialysis patients. Using frameworks like LangChain for prompt engineering, Retrieval Augmented Generation (RAG) for enhanced domain knowledge, and Chroma as a vector database, a web-based chatbot platform was developed. The ReAct and chain-of-thought (CoT) approaches were applied to create an agent-based system. The quantitative evaluation of this research will use ROUGE, BLEU, and SAS for the chatbot system, and MAP@3, and MRR@3 were used for the RAG systems, along with qualitative expert assessments. Overall, the qualitative and quantitative evaluations for each system received positive feedback based on expert judgment and the results of each metrics, indicating that both systems performed well in generating responses aligned with the goals of this research, which are to provide accurate responses and assist in monitoring patients. On the system side, the chatbot and RAG system’s ability to understand conversational context and provide more relevant and informative responses, using agent-based approaches enhanced by RAG, offers a clear advantage. The prompts we are using, ReAct and CoT, enable the agent-based LLM to think more effectively, make appropriate decisions, and simulate a more structured and logical thought process. By utilizing these enhancements, the chatbot can also generate medical urgency message to alert medical teams connected to the platform. This allows them to respond to emergencies when patients report symptoms that require further care at a hospital. This research has demonstrated that LLMs can be effectively utilized as chatbots in the healthcare field, specifically for monitoring hemodialysis patients."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2024
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Mutiara Azzahra
"Indonesia kaya akan warisan budaya, salah satunya adalah aksara Pegon. Aksara ini merupakan sistem penulisan yang berkembang selama penyebaran Islam di nusantara. Warisan budaya ini adalah adaptasi dari aksara Arab yang sering digunakan oleh para ulama Islam dalam penulisan manuskrip di masa lalu. Namun, seiring dominasi aksara Latin di Indonesia, penggunaan aksara Pegon saat ini semakin berkurang, hanya pada kalangan tertentu, sehingga menyebabkan sedikitnya individu yang mampu membaca aksara Pegon. Oleh karena itu, transliterasi antara aksara Pegon ke Latin diperlukan. Penelitian ini berfokus pada pengembangan transliterasi menggunakan pendekatan berbasis data dengan model sequence-to-sequence, mengikuti pedoman transliterasi Arab-Latin dari Kementerian Agama tahun 1987, hasil Kongres Aksara Pegon 2022, dan SNI 9047:2023. Hasil penelitian menunjukkan bahwa pendekatan berbasis data menggunakan metode sequence-to-sequence mencapai akurasi 99.76% dan CER 0.010624 untuk dataset bahasa Sunda dengan model terbaik BiGRU-Att, akurasi 99.31% dan CER 0.029255 untuk dataset bahasa Jawa dengan model terbaik BiGRU-Att, dan akurasi 99.58% dan CER 0.020466 untuk dataset gabungan bahasa dengan model BiLSTM-Att. Dari hasil ini, dapat dikatakan bahwa hasil prediksi tergolong baik dengan nilai akurasi di atas 70%, nilai loss mendekati 0, dan nilai Character Error Rate (CER) mendekati 0 untuk semua dataset.

Indonesia, rich in cultural heritage, includes Pegon script, a writing system that evolved during the spread of Islam in the archipelago. This cultural heritage is an adaptation of the Arabic script often used by Islamic scholars in manuscript writing in the past. However, the current use of Pegon script is less popular compared to the past due to the dominance of the Latin script in Indonesia, resulting in few individuals being able to read Pegon script. Therefore, transliteration between Pegon and Latin scripts is necessary. The research concentrates on developing transliteration using a data-driven approach with sequence-to-sequence models, following the Arabic-Latin transliteration guidelines from the Ministry of Religious Affairs in 1987, the results of the Pegon Script Congress 2022, and SNI 9047:2023. The results show that the data-driven approach using the sequence- to-sequence method achieves an accuracy of 99.76% and a CER of 0.010624 for the Sundanese dataset with the best model BiGRU-Att, an accuracy of 99.31% and a CER of 0.029255 for the Javanese dataset with the best model BiGRU-Att, and an accuracy of 99.58% and a CER of 0.020466 for the combined language dataset with the BiLSTM-Att model. From these results, it can be said that the prediction results are classified as good with accuracy values above 70%, loss values close to 0, and Character Error Rate (CER) values close to 0 for all datasets."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2024
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Muhammad Rafif Priyo Waskito
"Peraturan perundang-undangan baru di Indonesia dapat mengganti, menghapus, atau menambahkan aturan yang sudah berlaku sehingga setiap warga Indonesia memiliki tanggung jawab untuk mengetahui aturan terbaru saat hendak digunakan. Laman pengumpulan informasi ini sudah ada di laman pemerintah resmi seperti peraturan.go.id. Akan tetapi ada informasi yang tidak mudah dicari seperti isi pasal terbaru pada doku- men yang telah diubah oleh dokumen lain. Sekarang, sudah ada informasi peraturan perundang-undangan yang disimpan dalam knowledge graph (KG)-sebuah basis data terstruktur berbentuk kumpulan entitas dan relasi layaknya sebuah graf- bernama LexID KG (Muninggar & Krisnadhi, 2023). Ditambah lagi, LexID QA (Handi, 2023), yaitu sebuah sistem tanya jawab hukum dengan informasinya dari LexID KG, menangani masalah ini tetapi dengan memaksakan struktur inputnya. Menurut Jain, Kumar, Kota, dan Patel (2018) kebebasan membuat input (free-text) merupakan tur bagus karena seakan-akan sedang berinteraksi dengan manusia. Oleh karena itu, penelitian ini berusaha untuk menyelesaikan permasalahan pemaksaan struktur input pada LexID QA dengan beralih ke model machine learning pipeline. Model pipeline-nya tersusun dari model klasi kasi pertanyaan bebas ke kueri SPARQL, sebuah bahasa untuk mengambil informasi dari KG, dan model NER untuk mengambil informasi entitas penting seperti judul dokumen yang dicari pada pertanyaan bebasnya. Kedua model ini berbasiskan BERT (Bidirectional Encoder Representations from Transformers) (Devlin, Chang, Lee, & Toutanova, 2018). Hasil dari model klasi kasi mencapai nilai sempurna pada dataset baru yang dibuat pada penelitian ini. Kemudian, hasil dari model pipeline-nya juga mencapai nilai makro-akurasi sebesar 0.949 pada dataset yang sama.

New laws and regulations in Indonesia can modify, repeal, or adding to existing rules so that every Indonesian citizen has responsibility to know the latest rules when utilizing them. This collection of information is available on of cial government websites such as peraturan.go.id. However, there is information that not easy to nd, such as the contents of latest articles in the documents that have been modi ed by another document. Currently, there is regulatory information stored in a knowledge graph (KG)-a database structured in the form of a collection of entities and relationships like a graph- called LexID KG (Muninggar & Krisnadhi, 2023). Additionally, LexID QA (Handi, 2023), a legal question and answer system with information from LexID KG, addresses this problem but forcing its input structure. According to Jain et al. (2018), free-text input is a good feature because it feels like communication with humans. Therefore, this research trying to solve the problem of forcing input structures in LexID QA by transitioning to a machine learning pipeline model. The pipeline model is composed of free question classi cation model to query SPARQL, a language for retrieving information from KG, and NER model to extracting important entity such as legal title in the free-text input. Both model are based on BERT (Bidirectional Encoder Representations from Transformers) (Devlin et al., 2018). The classi cation model achieved a perfect score on the new dataset created in this research. Furthermore, the pipeline model achieved a macro-accuracy score of 0.949 on the same dataset."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2024
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Fitri 'Aliyah
"Indonesia kaya akan warisan budaya, salah satunya adalah aksara Pegon. Aksara ini merupakan sistem penulisan yang berkembang selama penyebaran Islam di nusantara. Warisan budaya ini adalah adaptasi dari aksara Arab yang sering digunakan oleh para ulama Islam dalam penulisan manuskrip di masa lalu. Namun, seiring dominasi aksara Latin di Indonesia, penggunaan aksara Pegon saat ini semakin berkurang, hanya pada kalangan tertentu, sehingga menyebabkan sedikitnya individu yang mampu membaca aksara Pegon. Oleh karena itu, transliterasi antara aksara Pegon ke Latin diperlukan. Penelitian ini berfokus pada pengembangan transliterasi menggunakan pendekatan berbasis data dengan model sequence-to-sequence, mengikuti pedoman transliterasi Arab-Latin dari Kementerian Agama tahun 1987, hasil Kongres Aksara Pegon 2022, dan SNI 9047:2023. Hasil penelitian menunjukkan bahwa pendekatan berbasis data menggunakan metode sequence-to-sequence mencapai akurasi 99.76% dan CER 0.010624 untuk dataset bahasa Sunda dengan model terbaik BiGRU-Att, akurasi 99.31% dan CER 0.029255 untuk dataset bahasa Jawa dengan model terbaik BiGRU-Att, dan akurasi 99.58% dan CER 0.020466 untuk dataset gabungan bahasa dengan model BiLSTM-Att. Dari hasil ini, dapat dikatakan bahwa hasil prediksi tergolong baik dengan nilai akurasi di atas 70%, nilai loss mendekati 0, dan nilai Character Error Rate (CER) mendekati 0 untuk semua dataset.

Indonesia, rich in cultural heritage, includes Pegon script, a writing system that evolved during the spread of Islam in the archipelago. This cultural heritage is an adaptation of the Arabic script often used by Islamic scholars in manuscript writing in the past. However, the current use of Pegon script is less popular compared to the past due to the dominance of the Latin script in Indonesia, resulting in few individuals being able to read Pegon script. Therefore, transliteration between Pegon and Latin scripts is necessary. The research concentrates on developing transliteration using a data-driven approach with sequence-to-sequence models, following the Arabic-Latin transliteration guidelines from the Ministry of Religious Affairs in 1987, the results of the Pegon Script Congress 2022, and SNI 9047:2023. The results show that the data-driven approach using the sequence- to-sequence method achieves an accuracy of 99.76% and a CER of 0.010624 for the Sundanese dataset with the best model BiGRU-Att, an accuracy of 99.31% and a CER of 0.029255 for the Javanese dataset with the best model BiGRU-Att, and an accuracy of 99.58% and a CER of 0.020466 for the combined language dataset with the BiLSTM-Att model. From these results, it can be said that the prediction results are classified as good with accuracy values above 70%, loss values close to 0, and Character Error Rate (CER) values close to 0 for all datasets."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2024
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Devina Fitri Handayani
"Indonesia kaya akan warisan budaya, salah satunya adalah aksara Pegon. Aksara ini merupakan sistem penulisan yang berkembang selama penyebaran Islam di nusantara. Warisan budaya ini adalah adaptasi dari aksara Arab yang sering digunakan oleh para ulama Islam dalam penulisan manuskrip di masa lalu. Namun, seiring dominasi aksara Latin di Indonesia, penggunaan aksara Pegon saat ini semakin berkurang, hanya pada kalangan tertentu, sehingga menyebabkan sedikitnya individu yang mampu membaca aksara Pegon. Oleh karena itu, transliterasi antara aksara Pegon ke Latin diperlukan. Penelitian ini berfokus pada pengembangan transliterasi menggunakan pendekatan berbasis data dengan model sequence-to-sequence, mengikuti pedoman transliterasi Arab-Latin dari Kementerian Agama tahun 1987, hasil Kongres Aksara Pegon 2022, dan SNI 9047:2023. Hasil penelitian menunjukkan bahwa pendekatan berbasis data menggunakan metode sequence-to-sequence mencapai akurasi 99.76% dan CER 0.010624 untuk dataset bahasa Sunda dengan model terbaik BiGRU-Att, akurasi 99.31% dan CER 0.029255 untuk dataset bahasa Jawa dengan model terbaik BiGRU-Att, dan akurasi 99.58% dan CER 0.020466 untuk dataset gabungan bahasa dengan model BiLSTM-Att. Dari hasil ini, dapat dikatakan bahwa hasil prediksi tergolong baik dengan nilai akurasi di atas 70%, nilai loss mendekati 0, dan nilai Character Error Rate (CER) mendekati 0 untuk semua dataset.

Indonesia, rich in cultural heritage, includes Pegon script, a writing system that evolved during the spread of Islam in the archipelago. This cultural heritage is an adaptation of the Arabic script often used by Islamic scholars in manuscript writing in the past. However, the current use of Pegon script is less popular compared to the past due to the dominance of the Latin script in Indonesia, resulting in few individuals being able to read Pegon script. Therefore, transliteration between Pegon and Latin scripts is necessary. The research concentrates on developing transliteration using a data-driven approach with sequence-to-sequence models, following the Arabic-Latin transliteration guidelines from the Ministry of Religious Affairs in 1987, the results of the Pegon Script Congress 2022, and SNI 9047:2023. The results show that the data-driven approach using the sequence- to-sequence method achieves an accuracy of 99.76% and a CER of 0.010624 for the Sundanese dataset with the best model BiGRU-Att, an accuracy of 99.31% and a CER of 0.029255 for the Javanese dataset with the best model BiGRU-Att, and an accuracy of 99.58% and a CER of 0.020466 for the combined language dataset with the BiLSTM-Att model. From these results, it can be said that the prediction results are classified as good with accuracy values above 70%, loss values close to 0, and Character Error Rate (CER) values close to 0 for all datasets."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2024
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Fikri Aufaa Zain
"Dalam beberapa tahun terakhir, teknologi chatbot telah berkembang secara signifikan, dengan munculnya Large Language Model (LLM) seperti GPT dari OpenAI, Llama dari Meta, dan Gemini dari Google. Penelitian ini mengeksplorasi penerapan chatbot berbasis LLM dalam dunia medis, khususnya untuk membantu dan memantau pasien hemodialisis. Menggunakan kerangka kerja seperti LangChain untuk melakukan prompt engineering, Retrieval Augmented Generation (RAG) untuk meningkatkan pengetahuan domain, dan Chroma sebagai vector database, platform chatbot berbasis web dikembangkan. Pendekatan ReAct dan chain-of-thought (CoT) diterapkan untuk membuat sistem berbasis agen. Evaluasi kuantitatif dari penelitian ini akan menggunakan ROUGE, BLEU, dan SAS untuk sistem chatbot, dan MAP@3, dan MRR@3 digunakan untuk sistem RAG, bersama dengan penilaian kualitatif oleh ahli di bidang hemodialisis. Secara keseluruhan, evaluasi kualitatif dan kuantitatif untuk setiap sistem menerima umpan balik positif berdasarkan penilaian ahli dan hasil dari setiap metrik, yang menunjukkan bahwa kedua sistem berkinerja baik dalam menghasilkan tanggapan yang selaras dengan tujuan penelitian ini, yaitu memberikan tanggapan yang akurat dan membantu dalam memantau pasien. Dari sisi sistem, kemampuan chatbot dan sistem RAG dalam memahami konteks percakapan dan memberikan tanggapan yang lebih relevan dan informatif, menggunakan pendekatan berbasis agen yang ditingkatkan oleh RAG, memberikan keuntungan yang signifikan. Prompt yang kami gunakan, ReAct dan CoT, memungkinkan agen berbasis LLM untuk berpikir lebih efektif, membuat keputusan yang tepat, dan mensimulasikan proses berpikir yang lebih terstruktur dan logis. Dengan memanfaatkan peningkatan ini, chatbot juga dapat menghasilkan pesan urgensi medis untuk memperingatkan tim medis yang terhubung ke platform. Hal ini memungkinkan mereka untuk merespons keadaan darurat ketika pasien melaporkan gejala yang membutuhkan perawatan lebih lanjut di rumah sakit. Penelitian ini telah menunjukkan bahwa LLM dapat digunakan secara efektif sebagai chatbot di bidang kesehatan, khususnya untuk memantau pasien hemodialisis.

In recent years, chatbot technology has advanced significantly, with the rise of Large Language Models (LLMs) such as OpenAI’s GPT, Meta’s Llama, and Google’s Gemini. This research explores the application of LLM-based chatbots in healthcare, specifically for assisting and monitoring hemodialysis patients. Using frameworks like LangChain for prompt engineering, Retrieval Augmented Generation (RAG) for enhanced domain knowledge, and Chroma as a vector database, a web-based chatbot platform was developed. The ReAct and chain-of-thought (CoT) approaches were applied to create an agent-based system. The quantitative evaluation of this research will use ROUGE, BLEU, and SAS for the chatbot system, and MAP@3, and MRR@3 were used for the RAG systems, along with qualitative expert assessments. Overall, the qualitative and quantitative evaluations for each system received positive feedback based on expert judgment and the results of each metrics, indicating that both systems performed well in generating responses aligned with the goals of this research, which are to provide accurate responses and assist in monitoring patients. On the system side, the chatbot and RAG system’s ability to understand conversational context and provide more relevant and informative responses, using agent-based approaches enhanced by RAG, offers a clear advantage. The prompts we are using, ReAct and CoT, enable the agent-based LLM to think more effectively, make appropriate decisions, and simulate a more structured and logical thought process. By utilizing these enhancements, the chatbot can also generate medical urgency message to alert medical teams connected to the platform. This allows them to respond to emergencies when patients report symptoms that require further care at a hospital. This research has demonstrated that LLMs can be effectively utilized as chatbots in the healthcare field, specifically for monitoring hemodialysis patients."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2024
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
<<   1 2   >>